執行摘要
Meta 於2023年發布的 LLaMA 模型開創了開源人工智慧的新時代。到2026年初,開源 AI 生態系統已大幅擴展:Hugging Face 託管了超過80萬個模型,Mistral、Qwen、DeepSeek 和 LLaMA 系列與專有替代方案展開了有力的競爭,根據 Stanford HAI AI Index 2025 的數據,開源模型驅動了約40%的企業 AI 部署。在開源基礎模型中的累計投資——包括訓練算力、研究人員薪酬和基礎設施——超過250億美元。
本文從公共財理論和公共財治理的角度分析開源 AI 生態系統。開源 AI 模型具有公共財的關鍵特徵:它們是非競爭性的(一個組織的使用不會減損另一個組織的使用)且一旦發布就實質上是非排他的。這造成了經典的搭便車問題——組織從開源模型中受益卻不貢獻於其開發或伴隨負責任部署的安全研究。我們檢視了開源 AI 公共財面臨的可持續性挑戰、AI 安全研究中的搭便車動態,並借鑒 Elinor Ostrom 成功公共財管理的設計原則提出治理框架。
開源 AI 的經濟學:公共財分析
開源基礎模型的決策在經濟上是矛盾的。訓練一個前沿模型僅在算力方面就需要5,000萬至5億美元(Epoch AI 估計),而一旦發布,所產生的模型可以被競爭對手免費下載和部署。為什麼追求利潤最大化的企業會投資數億美元在它們贈送的資產上?
答案在於間接挪用機制。Meta 開源 LLaMA 儘管有直接成本,但在戰略上是理性的,因為它:將 Meta 的競爭對手(Google、OpenAI)具有優勢的 AI 模型層商品化;將競爭轉移到 Meta 的社交媒體平台和用戶數據提供優勢的應用層;建立一個依賴 Meta 模型架構和工具的開發者生態系統;並將 Meta 的模型確立為事實標準,創造轉換成本。
這種戰略邏輯反映了平台市場的經濟學:開源模型作為虧本引流的互補品,增強企業專有資產的價值。OECD 的 AI 政策觀測站記錄到,2023年至2025年間主要開源模型發布中有78%來自具有從生態系統增長中受益的重大專有收入流的企業。
然而,這種企業驅動的開源模型造成了治理緊張。當開源 AI 主要是大公司的戰略工具時,「公共財」實際上由利益可能與更廣泛社群分歧的實體管理。許可限制(如 Meta 的 LLaMA 社群許可證禁止超過7億用戶的公司使用)揭示了企業開源作為真正公共財的局限性。
AI 安全研究中的搭便車問題
AI 安全研究——涵蓋對齊、可解釋性、穩健性和防濫用——比模型本身具有更強的公共財特徵。安全研究產生的知識惠及所有 AI 開發者和用戶,但成本由進行研究的研究人員和組織承擔。搭便車的激勵強大:任何單一企業的安全投資同等地惠及其競爭對手,而成本則減少了可用於能力開發的競爭資源。
實證證據證實了系統性的投資不足。Stanford HAI AI Index 2025 估計,AI 安全研究約佔 AI 研究總支出的2.3%,儘管專家調查一致認為安全對該技術的長期可行性至關重要。在開源模型開發者中,這一比例更低:對 Hugging Face 模型儲存庫的分析顯示,伴隨安全評估文件(含風險評估、偏差審計和能力限制的模型卡)的上傳模型不到15%。
搭便車問題因開源 AI 固有的「雙重用途困境」而加劇。為有益目的發布的模型可以被微調用於有害應用——生成虛假資訊、合成危險材料製備說明,或創建未經同意的親密影像。濫用的成本由社會承擔,而開放發布的收益主要歸於開發者。這種負外部性造成了開源的私人和社會回報之間的差距,而標準市場機制無法解決。
生物安全提供了一個具有啟發性的類比。針對功能增益病毒學研究而開發的關注雙重用途研究(DURC)框架,為產生有益知識和濫用潛力的研究建立了治理機制。將 DURC 原則應用於開源 AI——包括發布前風險評估、分階段發布協議和濫用監測——可以在不消除開放性收益的情況下幫助解決安全搭便車問題。
公共財治理:應用 Ostrom 的原則
Elinor Ostrom 對成功公共財治理的研究確定了八項設計原則,使社群能夠可持續地管理共享資源。應用於開源 AI 公共財,這些原則提出了具體的治理創新:
1. 明確界定的邊界。開源 AI 公共財需要更清楚地定義什麼構成成員資格,以及使用權附帶哪些義務。當前的開源許可證定義了使用權但未定義貢獻義務。一個「負責任 AI 許可證」可以將強大模型的使用權與安全標準的遵守掛鈎,在負責任和不負責任的公共財使用者之間建立邊界。
2. 收益與成本之間的比例對等。從開源模型中獲取商業價值的組織應按比例貢獻於其維護和安全。Linux Foundation 的模式——企業成員根據公司規模繳納分級費用——提供了一個範本。類似的「AI 公共財基金會」可以根據商業部署的規模來資助安全研究、基礎設施維護和能力評估。
3. 集體選擇安排。關於公共財的治理決策——發布哪些模型、要求什麼安全評估、如何處理濫用報告——應涉及利益相關方社群,而不僅僅是發布企業。多利益相關方治理機構,類似於用於協議標準的互聯網工程任務組(IETF),可以為負責任的開源 AI 開發建立社群驅動的規範。
4. 監測和分級制裁。有效的公共財治理需要偵測違規行為並施加相稱後果的機制。對於開源 AI,這意味著投資於模型部署監測(偵測模型被用於禁止目的的時間)和從警告到許可撤銷的分級回應。模型水印和推理時監測等技術機制可以支持執行。
算力公共財:基礎設施作為共享資源
AI 訓練算力的集中呈現了一個獨特但相關的公共財挑戰。Epoch AI 的數據顯示,自2020年以來前沿模型訓練所需的算力每六個月翻一番,遠超摩爾定律。到2026年初,訓練前沿模型所需的計算資源只有少數組織能夠負擔——創造了一個限制誰能參與 AI 開發的「算力寡頭壟斷」。
多項倡議已經出現以解決算力集中問題。美國國家 AI 研究資源(NAIRR)於2024年以試點形式啟動,為學術研究人員提供算力和數據集的使用權。歐盟的 EuroHPC 聯合事業為 AI 研究分配超級計算資源。OECD 關於 AI 算力治理的建議提出了跨國公平算力准入的原則。這些倡議代表了將 AI 算力視為共享基礎設施資源的早期實驗——公共研究大學或國家實驗室的數位對應物。
算力共享的網路經濟學創造了正向回饋循環。隨著更多研究人員使用共享算力,開源模型的數量和多樣性增加,進而增加了共享生態系統對每個參與者的價值。這種網路外部性表明,如果治理得當,算力公共財計劃可以變得自我強化——吸引超過初始公共投資的貢獻。
治理提案:AI 公共財框架
基於上述公共財分析和公共財治理原則,我們提出開源 AI 公共財的三支柱治理框架:
- 支柱一——負責任發布協議:根據模型能力建立分級發布程序。低於定義能力門檻的模型在標準開源許可證下發布。超過門檻的模型在發布前接受結構化安全評估,採用分階段准入(研究人員、然後開發者、然後公眾)和強制監測期。
- 支柱二——AI 安全公共財基金:創建一個多邊基金,由開源 AI 的商業部署者按其收入比例資助,專門用於安全研究、紅隊測試和濫用監測。該基金將獨立於任何單一企業贊助商運作,由選舉產生的多利益相關方董事會治理。
- 支柱三——算力准入計劃:擴大用於 AI 研究的公共算力基礎設施,分配由科學價值和地理多樣性標準治理。將算力准入計劃嵌入現有多邊機構(UNESCO、ITU)以確保廣泛參與和合法性。
對 GDEF 科技與轉型工作小組的啟示
開源 AI 生態系統代表了自1990年代開源軟體運動發展以來數位公共財治理中最重要的實驗之一。然而,利害關係要高得多:基礎模型是具有跨經濟和社會每個部門變革潛力的通用技術。GDEF 的科技與轉型工作小組將推進本文提出的治理框架,特別關注 AI 安全公共財基金機制,並與 OECD AI 政策觀測站和 Partnership on AI 協調合作。
參考文獻與來源
- Stanford HAI, Artificial Intelligence Index Report 2025. Stanford University Human-Centered Artificial Intelligence. aiindex.stanford.edu
- OECD, AI Policy Observatory: Open Source AI Governance. oecd.ai
- Epoch AI, Training Compute of Frontier AI Models, 2025 Database. epochai.org/data
- Ostrom, E. (1990). Governing the Commons: The Evolution of Institutions for Collective Action. Cambridge University Press. doi.org/10.1017/CBO9780511807763
- Samuelson, P.A. (1954). "The Pure Theory of Public Expenditure." Review of Economics and Statistics, 36(4), 387–389. doi.org/10.2307/1925895
- Linux Foundation Research, State of Open Source AI 2025. linuxfoundation.org/research
- Hugging Face, Open LLM Leaderboard and Model Hub Statistics, 2025. huggingface.co
- Kapoor, S. and Narayanan, A. (2023). "Leakage and the Reproducibility Crisis in Machine-Learning-based Science." Patterns, 4(9), 100804. doi.org/10.1016/j.patter.2023.100804
- National Academies of Sciences, Dual Use Research of Concern in the Life Sciences, 2024. nationalacademies.org