← 返回

AI治理全景图

2026年2月1日

如果你一直在关注AI治理,你看到了很多动作。AI安全峰会。联合国专家组。欧盟法规。公司承诺。诺贝尔奖得主签署的公开信。看起来很多事情在发生。

然后你看数字。全球AI安全和治理支出:大约每年2-4亿美元。全球企业AI投资:2024年2520亿美元。这是600:1到1200:1的比例。每1美元用于确保AI安全和被治理,就有六百到一千二百美元用于让它更强大。

这篇文章画出实际存在的东西。不是宣布了什么、承诺了什么——而是什么有约束力、有执行机制、有真实影响。


国际层面:广而浅

联合国 2023年成立了AI顾问机构,2025年8月升级为永久的独立科学专家组——40名专家从2600+候选人中选出。2026年3月首次会议。纯咨询性质,没有政府有义务执行任何建议。影响力:4/10。

OECD 发布了首个政府间AI原则(2019年,2024年更新),追踪80+国家的800+项AI政策。这些原则确实影响了EU AI Act。但它们是建议,不是要求。影响力:5/10。

AI安全峰会系列(Bletchley 2023 → Seoul 2024 → Paris 2025)产出了宣言、自愿公司承诺和AI安全研究所网络。在巴黎,叙事从”安全”转向”行动和创新”。没有任何峰会产出过约束性成果。

欧洲委员会AI框架公约——第一个有法律约束力的国际AI条约。44个签署方。但需要5个批准才能生效,目前零批准。中国和俄罗斯不参与。影响力:5/10——历史意义大,实际效力为零。

模式:很多机构,很多宣言,几乎零执行力。国际AI治理广而浅。


国家层面:三个不兼容的方向

美国:真空

美国——占前沿AI开发投资约50%——没有联邦层面的约束性AI安全法规。

Biden的行政令14110(2023年10月)是最全面的尝试。Trump在2025年1月20日撤销了它,代之以”消除美国AI领导力障碍”。

加州SB 1047——要求大模型安全测试——2024年9月被州长否决。NIST的AI安全研究所预算约1000万美元,正在缩编。国会没有任何全面AI立法在推进。

美国不只是没有治理——它在积极阻止治理。这是全球AI治理格局中最具后果性的事实。

欧盟:孤独的监管者

EU AI Act是唯一全面的约束性AI法规(罚款最高达全球营收的7%)。禁止做法自2025年2月生效。通用AI模型规则自2025年8月生效。高风险AI系统延迟到2027年底。

EU AI Office有约60-140名员工。这是正在建设中的执行机构。但EU只占全球AI算力的4-5%

中国:有效但目标不同

中国建了最完整的AI监管框架:算法推荐规定(2022)、深度合成规定(2023)、生成式AI管理暂行办法(2023)、AI内容标识办法(2025)。截至2025年底748个GenAI服务完成备案。每个GenAI服务都要经过上市前审查。

运营上有效——但目标主要是国家控制和社会稳定,不是西方AI安全话语中关注的alignment/存在风险。

其他

英国: AI Safety Institute改名为”AI Security Institute”,缩窄到国家安全。预算£66M,全球最高。韩国: AI基本法2026年1月生效——第三个有全面约束性AI法规的国家。118个国家 不在任何主要AI治理倡议中。


双边:几乎没在谈

美中 双边AI互动几乎不存在。拜登-习核AI声明(2024年11月)——人类控制核武器——是唯一实质性协议。有学术层面的Track II对话但无政策影响。

这两个国家控制全球约90%的AI算力。它们无法在AI安全上协调是治理格局中最大的单一缺口。


民间组织:资金少但有影响

全球独立AI安全和治理工作大部分由几十个组织完成。它们的合并年预算大约5000万-1亿美元——不到一个前沿模型训练费。

研究: METR(能力评估)、Apollo Research(策划行为检测)、GovAI(算力治理框架)。

倡导: Future of Life Institute组织了2023年的暂停公开信(33,000+签名)。暂停没有发生。2025年400+科学家和诺奖得主呼吁在2026年底前建立约束性red lines。

学术: Stanford HAI发布年度AI Index。牛津FHI——AI安全研究的创始机构之一——2024年因大学行政问题关闭了。


行业自律:实际的治理

在没有约束性法规的地方,行业自律是事实上的治理机制。

**Anthropic的负责任扩展政策**是最详细的企业安全承诺——定义了AI安全等级(ASL-1到ASL-4),触发增强遏制和安全要求。比大多数政府政策更具操作性。

OpenAI 做过安全承诺但记录令人担忧。超级对齐团队(2023年7月宣布,承诺20%算力)在2024年5月实际上解散了——联合负责人Jan Leike辞职时说安全文化已经”让位于闪亮的产品”。

行业自律的根本问题:竞争压力。如果一家公司放松安全承诺更快发货,其他公司就面临跟随的压力。


差距

所有这些加起来:

约30-40%的全球AI开发 受某种形式的约束性法规覆盖。但大部分还没有执行(EU)、服务不同目标(中国)、或刚刚开始(韩国)。美国——约50%的前沿AI开发——没有联邦约束性AI安全法规,而且在积极阻止它。

需要什么有什么差距
有执行力的国际条约CoE公约——零批准,无中俄关键缺口
前沿模型强制上市前测试只有中国要求。EU从2026-27年。美国:无关键缺口
有监控权的国际机构UN专家组纯咨询。AISI无监管权关键缺口
算力治理Biden尝试了。Trump撤销了关键缺口
紧急停止权除中国外无政府有此权力关键缺口
足够的安全研究资金2-4亿 vs 2520亿+能力投资灾难性缺口
美中合作框架一条象征性声明。无工作组关键缺口

最致命的数字:AI安全和治理全球每投入1美元,就有600-1200美元投入让AI更强大。 这不是治理缺口。这是治理缺席。


对happy path意味着什么

AI的理想路径中,第二阶段是建立有真正权力的监管和国际协调。这张地图显示了我们离那有多远:

  • 机构存在但缺乏执行力
  • 峰会在继续但从安全转向创新
  • 唯一有效的上市前审查国家(中国)用它来做国家控制
  • 领先的AI强国(美国)在积极去监管
  • 民间组织在做严肃的工作但预算微薄
  • 行业自律比没有好但结构性不可靠

这不是说治理不可能。银行的巴塞尔协议也是从自愿标准开始、直到2008年危机才变成约束性规则。Chatham House认为约束性AI治理可能只在危机后才政治可行。问题是我们能否在危机前建够制度基础设施,使得政治意愿出现时响应是快速的。

机构在建。问题是它们在被需要之前能不能有牙齿。


参考资料