
海外智庫觀察
隨著人工智慧技術在全球範圍的迅猛發展,圍繞其治理的國際競爭也愈發激烈。ai治理不再僅僅是技術管理問題,更成為國家軟實力輸出、規則制定權爭奪以及地緣政治博弈的重要組成部分。在這一過程中,中美兩國以不同的治理路徑和制度邏輯,試圖在聯合國、國際標準化組織(iso/iec)、國際電信聯盟(itu)等多邊平台中主導ai規則的形成方向,推動各自偏好的標準體系獲得國際承認和採納。
美國長期以來強調行業自律、跨國企業主導與多利益相關者協商的治理模式,其ai治理結構更注重可解釋性、透明性與技術創新自由;而中國則傾向於國家主導、平台責任與風險可控的制度設計,強調對演算法、數據和模型的全生命周期監管。這種標準理念上的差異,也在國際組織內部不斷顯現。例如,在itu人工智慧焦點小組(fg-ai4h)中,中方提出「機器學習模型分級監管框架」,而美方代表則更推崇以風險導向為基礎的柔性技術標準。
更值得關注的是,2025年以來,隨著生成式人工智慧(genai)的技術能力突破與商業化推進,治理問題已從傳統ai的技術安全與演算法公平,延伸至對信息控制、平台責任乃至社會穩定的更深層考量。中美在生成式ai領域分別推動了不同的法規體系:美國在國家標準與技術研究院(nist)基礎上制定評估框架,並在iso層面進行標準轉化;而中國則通過《生成式人工智慧服務管理暫行辦法》等法規確立了模型備案、內容審核與用戶分級制度。這些國內製度已被各自納入其「標準外交」路徑,開始走向國際輸出階段。
本文以csis與卡內基國際和平基金會2025年的兩篇最新研究為基礎,探討中美在ai治理標準制定過程中的關鍵差異與制度競爭重點,分析國際組織中的政策工具運用與軟性影響力策略,並嘗試評估未來是否可能出現某種「結構性協同機制」,從而避免ai標準的全球分裂。
美國戰略與國際研究中心
csis
美國推動ai標準的法律基礎與國際結構戰略
2025年3月,美國戰略與國際研究中心(csis)的研究員emily benson發表了題為《理解美國及其盟友在ai與半導體出口控制上的法律許可權》的專題分析文章。這篇報告並不局限於出口控制本身,而是系統性地揭示了美國在ai國際治理中如何通過法律結構、標準輸出與盟友協調,建立其治理主導地位。文章中一個核心觀點是:「出口管制只是手段,標準主導才是目標。」文章首先回顧了美國國內的ai治理法律基礎。benson指出,美國國家標準與技術研究院(nist)在2023年發布的《ai風險管理框架(ai rmf)》為美國各大科技公司、軍工承包商與研究機構提供了統一的標準語言,並成為參與國際組織標準談判時的重要依據。舉例來說,該框架中的「模型信任度評估指標」(trust metrics)已被嵌入iso/iec jtc1/sc42工作組所起草的ai系統安全標準草案中,顯示出美國國內標準向國際標準的轉換路徑。
其次,文章分析了美國如何利用其聯盟體系在國際標準組織中集體行動。csis研究指出,美方不僅在itu和iso中積極部署代表,還通過與歐盟、加拿大、日本和澳大利亞達成「ai標準協調備忘錄」(memoranda of understanding on ai standards),形成所謂「可信標準圈」(trusted standards circle)。例如,在iso/iec dis 42001(人工智慧管理系統標準)制定過程中,美日兩國代表成功推動引入對「演算法透明性」與「模型測試記錄」的附加條款,而這些條款正是nist標準中已有的組成部分。文章強調,這種做法大幅提升了美國制度在國際治理平台上的「兼容度與滲透率」。更具戰略意圖的是,benson指出,美國通過標準制定拉攏盟國共同構建治理生態,意圖將中國逐出關鍵技術評估議題。例如在itu-t fg-ai4a小組會議中,關於「ai倫理審查機制」的草案內容,美方代表聯合歐盟對中方提出的「國家主導責任模型」提出反對,認為其缺乏足夠的靈活性與透明性。最終,在反覆修訂後,中國方案未被採納,反映出美國在國際組織中不僅僅參與討論,更主動設定議題與規則。
文章最後呼籲,美方需保持技術開放與制度適應能力的平衡,繼續推動可解釋性、安全性和數據治理的國際標準形成,同時在保持高水平監管一致性的前提下,為ai產業創新保留足夠空間。
卡內基國際和平基金會
brookings institution
生成式人工智慧治理路徑與中國標準輸出機制
2025年2月,卡內基國際和平基金會發布題為《中國生成式ai監管路徑:國家法制與平台治理》的研究報告,由oliver guest與kevin wei聯合撰寫。該文聚焦中國政府如何建立一套系統性的生成式人工智慧(genai)監管制度,並嘗試將其制度框架推廣至國際平台,構建具有中國特色的ai治理標準輸出路徑。
文章首先概述了中國生成式ai治理的三大核心支柱:一是演算法備案制度,即所有在國內運營的大模型必須在網信辦進行演算法安全評估與技術說明報備;二是平台責任機制,要求企業對生成內容進行前置審核與用戶標註,並設置「禁止用戶輸入敏感詞」機制;三是倫理審查制度,強調模型訓練數據不得含有違法、歧視或破壞社會主義核心價值觀的內容。與西方主張自下而上的行業指引路徑不同,文章指出中國選擇的是「自上而下」的立法-監管-平台三級治理架構。例如,《生成式人工智慧服務管理暫行辦法》由國家互聯網信息辦公室聯合多個部委於2023年發布,迅速成為行業準則。這種快速制定與嚴格實施的模式,使中國政府能在ai治理初期就形成穩定、可控的制度框架。
文章進一步分析了中國將此套制度向國際輸出的策略與機制。一方面,中國通過與「一帶一路」合作國家簽署數字治理備忘錄,將ai治理作為「數字絲綢之路」的一部分推廣。例如與中東、中亞和非洲國家的合作中,中國企業為當地政府提供包括大模型訓練、內容審核、數據主權服務在內的整體方案,將國內治理理念包裝為「可複製的數字基礎設施服務包」;另一方面,中國積极參与iso/iec與itu的ai治理議題,嘗試以「安全優先、可控可解釋」為原則爭取話語權。報告特別指出,中國在itu-t fg-ai4h中主導的「生成式ai內容可信度評估指標」(g-ai-tri)草案中,強調生成內容的標籤機制、涉政過濾系統與平台實時干預能力,這一方案雖未最終通過,但得到了包括埃及、阿聯酋與巴基斯坦等多國代表支持。guest與wei認為,這表明中國標準正逐步形成「南南共識區」,並對西方以企業主導為核心的標準模式構成潛在挑戰。
值得注意的是,文章也指出了中國標準輸出所面臨的障礙。一方面,由於缺乏透明公開的第三方審核機制,中國制度常被質疑「難以複製」;另一方面,過於嚴格的內容管控在某些文化語境中易被理解為言論干預,降低其全球接受度。但作者亦強調,隨著生成式ai帶來的風險日益擴大,對高風險模型施加更多審查機制已成為全球共識,這也為中國路徑的國際化提供了機會窗口。
綜上所述,文章認為中國通過法律規範、平台協同與國際組織滲透形成了系統化的治理邏輯,雖尚未成為主流國際標準,但已構成另一極結構性影響力。未來是否能與美國主導的「技術透明-行業主導」路徑實現機制協同,仍取決於多邊平台中的協調機制與共同議題構建能力。
1.https://www.csis.org/analysis/understanding-us-allies-legal-authorities-export-controls-ai-and-semiconductors
2.https://carnegieendowment.org/research/2025/02/chinas-approach-to-regulating-generative-ai
審核:趙楊博
排版:李森(北京工商大學)
終審:梁正、魯俊群