← 返回

AI的理想路径

2026年1月29日

我有一段时间的撕裂感很强。在硅谷,每天和各种各样的人聊AI,读到论文预测2027年AGI就会实现。但出了硅谷和中国的几个城市,世界上大部分地方还没有真正被AI触及。

AI的影响是巨大的。有人说它要么带来乌托邦,要么带来反乌托邦。但我们的准备完全没有跟上——不只是技术上的,更多是社会制度上的。E.O. Wilson说过:“人类真正的问题是:我们有石器时代的情感、中世纪的制度、和神一样的技术。“AI让这个错位变得更危险了。

在湾区所有人都在聊AI,但我觉得大多数人没有想到更广的后果。更多的是关心自己利益范围内的事——投资、裁员、工作机会。很少有人在认真想这个社会要怎么应对。这让我觉得很割裂。

这篇文章是我基于目前找到的信息,尽我所能,试着描述一条现实中可能走得通的路径。不是预测,是路径——一步一步,每一步需要什么,有多难,有哪些我们还不知道答案的问题。


第一阶段:安全先于能力

目标: Alignment的投入应该大于能力的投入。不是先发展经济再做安全——是从一开始就把安全放在前面。

像养一个小孩一样。你不会先让他变得很强壮然后再教他什么是对的错的。你从头就同时做,而且在他还小的时候,教对错比增加力量更重要。AI也应该这样——在它还不够强的时候,alignment的工作应该比能力的工作更多。

需要做的事:

安全研究目前严重滞后。Anthropic估计把30-40%的开发周期花在alignment上,大多数公司远少于此。Bengio报告明确指出能力发展和治理发展之间存在”不匹配”。“alignment税”——让AI安全的额外成本——估计每个主要模型发布额外$8-15M算力。这需要成为行业规范,不是竞争劣势。

有人会说:你只有先把经济发展起来,才能给安全研究更多投入。我不这么认为。这就像说”先让孩子随便长,等他强壮了再教他道德”。到那时候你已经教不动了。

当前alignment研究的state of art:机械可解释性(理解模型内部在做什么)、可扩展监督(当AI比监督者更聪明时怎么监督)、宪法AI(让AI按原则自我约束)。没有一个接近”解决”。但这些是目前最有前景的方向。

Nick Bostrom区分了两种方案:能力控制(关在盒子里)和动机选择(让AI想要对的东西)。能力控制在理论上不可能长期有效。动机选择是真正的解决方案,但也是更难的那个。Stuart Russell的《人类兼容》提出AI应该对人类的偏好保持不确定——一个确切知道你想要什么的AI没有理由让你纠正它。

这一步有多难: 很难。Alignment是一个未解决的研究问题。难度随AI能力增长而增加。但我们没有选择不做——如果alignment做不对,后面所有步骤都没有意义。


第二阶段:建立真正有权力的监管和国际协调

目标: 让监管体系的权力大于个体公司的权力。让国际协调机制能够实际约束AI竞赛。

这一步是所有其他步骤的前提。没有监管,alignment投入不会成为行业规范(公司不会自愿承担竞争劣势)。没有国际协调,经济过渡不会发生(各国争先恐后地不敢先征税)。没有制度推动,HCI设计不会改变(市场激励推向完全自动化)。安全、经济、人的幸福——每一个都依赖于有人在更高层面设定和执行规则。

这不会凭空发生。

个人和公司天然是短视的——这不是批评,是人性。纵观历史一直如此。你不能指望每个CEO在利润和安全之间自愿选择安全。Silicon Valley的CEO们告诉政客AI会创造就业、提高生产力、让美国领先——这些可能都是真的,但它不是全部事实。没有人跑到国会山去说”我的产品可能让3000万人失业,请监管我”。

需要在国内层面做的:

在美国,硅谷CEO对政治家的影响太大了——通过技术影响政治,通过钱影响政治。政治家本身大多不了解技术。这个信息差让监管总是滞后。

具体需要什么:

  • 独立于行业的AI监管机构——不是让被监管者自己设定规则(Basel II让银行自己评估风险→2008年金融危机)
  • 技术背景的监管者——不是64岁的参议员问Zuckerberg”你们怎么赚钱”那种水平
  • 透明的游说披露——让公众知道哪些AI政策是公司花钱买来的
  • 类似FDA的AI部署审批流程——至少对高风险应用(医疗、法律、金融)实施上市前安全评估

需要在国际层面做的:

现在有三个不兼容的框架:EU强监管、美国放手发展、中国政府审批+内容控制。但真正决定AI走向的就是美国和中国——它们控制全球约90%的AI算力。其他所有国家的监管选择,在这两个国家不协调的情况下,效果有限。

拜登-习的核AI协议——人类而非AI控制核武器——是唯一实质性的双边AI安全协议。范围极其狭窄。我们需要的是把这个对话从”核武器”扩展到”AI发展速度”、“safety标准”、“经济影响应对”。

关于Moratorium(暂停):

很多人说moratorium不可行——谁暂停谁不暂停决定了谁在竞赛中领先。这个反对意见恰恰证明了我们需要更强的国际协调。不是单方面暂停,而是双方同时协调减速或设定安全门槛。

核不扩散条约做到了类似的事:美苏在冷战中是死敌,但双方都同意不扩散核武器给其他国家,不在大气层试验,最终限制了弹头数量。不完美——但80年没出核灾难。如果冷战中的美苏都能在核武器上协调,竞争中的美中为什么不能在AI安全上协调?

moratorium不一定是”全面暂停”。可以是:

  • 对特定能力等级以上的模型训练设置国际审批(类似核材料浓缩需要IAEA批准)
  • 双方同意不部署特定类型的危险应用(类似生物武器公约)
  • 共同设定safety benchmark——模型必须通过特定安全评估才能发布(类似药品上市前临床试验)
  • 算力监控——GovAI的研究表明算力是最适合治理的杠杆(可检测、可排除、可量化)

社会推动为什么是最重要的:

上面说的所有事——独立监管、国际协调、moratorium——没有一个会自动发生。历史上的重大监管变革几乎都需要社会推动:

  • 环保运动(1960-70年代)推动了EPA的成立和Clean Air Act
  • 消费者权益运动推动了FDA的食品安全标准
  • 反核运动推动了部分核试验禁令
  • 隐私运动推动了GDPR

AI治理目前缺少的不是好的政策方案——方案有很多。缺少的是足够的社会压力让政治家觉得”不做这件事会让我丢选票”。目前AI治理主要是精英之间的对话——安全研究者、政策学者、少数政治家。普通公众要么不了解,要么被hype和恐惧之间的极端叙事迷惑。

2025年秋,400多位AI科学家和诺贝尔奖得主签署了呼吁全球AI条约的公开信,要求在2026年底前建立”有可操作性和强执行机制的red lines”。这是社会推动的一个开始,但远远不够。

如何让AI治理从精英对话变成公众关心的议 题?如何防止监管被行业捕获(监管者被AI公司聘走或游说)?如何在 美中关系紧张的背景下推动AI安全协调?这些都是开放式的问题

更深的问题:政府本身的形式会不会改变?

有一个值得认真思考的理论框架。Harari在《未来简史》中提出的”数据主义”(Dataism)把政治制度重新理解为信息处理系统:资本主义是分布式数据处理,共产主义是中央集中式数据处理。资本主义赢了不是因为它更道德,而是因为分布式处理更高效。同样,民主相对于独裁的优势也在于分布式信息处理——更多节点参与决策,处理更多信息。

Jay Galbraith的组织信息处理理论从管理学角度说了类似的事:组织的结构取决于它需要处理多少不确定性。不确定性低→规则和层级就够了。不确定性高→需要更扁平、更多横向沟通、更强的信息系统。

如果这个逻辑成立,那AI时代的治理结构也需要进化。当信息流速度从”几天送到”(信使时代)变成”毫秒传遍全球”(互联网时代)再变成”AI自主处理”(agent时代),以月为单位开会、以年为单位立法的政府结构可能根本跟不上。这不是说民主不好——而是说民主的具体实现形式(代议制、四年选举周期、委员会审议)可能需要适应新的信息处理速度。

具体长什么样?也许是实时民意反馈系统。也许是AI辅助的政策模拟(类似USV的经济模型但规模更大)。也许是更频繁的、议题式的公民参与替代四年一次的选举。我不确定。但我确定的是:用18世纪设计的制度去治理21世纪的技术,至少需要升级。

open question: 如何让AI治理从精英对话变成公众关心的议题?如何防止监管被行业捕获?如何在美中关系紧张的背景下推动AI安全协调?政府的组织形式本身需要怎样的进化才能跟上AI的速度?


第三阶段:经济过渡——确保发展的收益被分享

目标: AI创造的财富流向所有人,而不是集中在少数人手里。防止贫富差距进一步扩大。

我们知道的:

AI的真实经济优势——加上验证和错误成本后——大约是1-5倍,不是标题说的100,000倍。但即使是1-5倍,在足够多的行业中铺开,仍然意味着大量工作的重组和一些工作的消失。

USV模型证明:乌托邦和反乌托邦是同一个系统的两个均衡。区别只在两个政策变量:竞争和再分配。两者缺一不可。

需要做的事(分阶段):

短期:纠正税法对自动化的补贴。美国劳动税率约25%、资本税率约5%——税制本身就在鼓励用机器替代人。纠正这个失衡不需要发明新税,只需要取消现有的不合理补贴。

中期:对AI经济活动征税。从那些因为AI而受益的人和公司那里拿出一些来,补贴给因为AI而受损的人——再培训、过渡支持、社会安全网。具体机制有token税电力税股权税等选项。

长期:如果AI真的把大部分生产成本推向接近零,UBI或UBS可能成为必要。七项UBI实验一致表明人不会因为拿到钱就停止工作。但到第三年心理健康改善效果会消退——钱是必要的但不够。

“政治不配合”不是终点,是需要解决的问题:

经济过渡最可能失败的原因不是经济学错了,而是政治不配合。OECD BEPS花了15年达成半个协议。预测市场给任何国家在2027年底前实施机器人税只有37%的概率

但”政治不配合”不是一个不可改变的事实——它是一个需要解决的问题。历史上的每一次重大经济再分配都需要社会推动:

  • 八小时工作制花了100年的工人运动(从Robert Owen 1817年到Fair Labor Standards Act 1940年)
  • 社会安全体系在大萧条之后才建立
  • 最低工资法需要数十年的劳工组织和几次经济危机

AI经济过渡的政治推动可能需要:

  • 一次足够大的AI导致的经济危机(类似2008年推动了金融监管改革)——Chatham House认为有约束力的治理可能只在危机后才政治可行
  • 足够多的Klarna式失败案例让行业意识到纯成本优化不可持续
  • 公众对AI取代工作的切身感受达到临界点(目前60%的先进经济体工人担心AI影响自己的工作)
  • 政治家发现”支持AI再分配”能赢选票(当受影响的选民足够多时)

open question: 我们能不能在危机发生之前就准备好再分配机制?还是人类注定只在痛苦之后才行动?如果是后者,至少让政策框架提前设计好,等危机来了可以快速部署——Chatham House称之为”off-the-shelf”治理框架


第四阶段:设计AI的交互——不只是效率

目标: 让AI既提高生产力,又不让人变得更差、更不快乐。

我们知道的:

我在另一篇文章里详细讨论了这个。核心发现:效率和快乐不是必然矛盾的,但在特定条件下会矛盾。关键变量是交互设计——同一个AI,被动使用(AI做→人审查)损害自我效能和意义感,主动使用(人先做→AI改进)保持两者。

我承认现实中不可能总用最优模式。有时候deadline到了就是需要AI全力输出。但我觉得我们现在太偏向短期了,应该尽量往长期调。不是每次都选最快的,而是大部分时候选保留人能力的那个。

需要做的事:

AI工具应该有四种模式:Generate(AI做)、Scaffold(AI提示,人做)、Challenge(AI挑战人的推理)、Step Back(AI不做,人自己练)。哪个模式取决于任务、技能水平、时间压力。沃顿象棋研究表明系统调节的AI辅助比用户自选效果好一倍(64% vs 30%)——用户无法自我调节,系统必须帮他们。

这不只是用户体验的问题——它直接影响经济效果。验证成本是压缩AI 53,000倍原始优势到1-5倍的瓶颈。当人做判断、AI做机械时,验证更便宜。保留人能力的设计和最大化经济回报的设计是同一个设计

open question: 市场激励推向完全自动化(每个任务成本更低)。怎么让保留人类参与的设计在商业上有竞争力?税收优惠?监管要求?还是等Klarna式的失败案例积累够多让行业自己醒悟?


第五阶段:如果一切做对了——乌托邦长什么样?

前四个阶段是”怎么走到好结果”。这一部分是更难的问题:好结果到底长什么样?

UBI不是终点,是工具

UBI是一种分配机制,但它不回答”人们用这些时间和自由做什么”。像我们之前研究的——Jahoda的五种潜在功能(时间结构、社交、集体目标、地位、规律活动)都不是钱能给的。FIRE社区的30-40%的人财务自由后回去工作——不是因为没钱,是因为没有意义。

Dario Amodei的”Machines of Loving Grace”描绘了一个最大化乐观的版本:AI在5-10年内战胜大部分疾病、数十亿人脱贫、自由民主复兴。但即使这些都实现了,人每天醒来做什么?这不是技术问题。

人到底想要什么?

每个人想要的东西不一样。有人想创造,有人想休息,有人想探索,有人想陪伴家人。乌托邦不应该是”让所有人都极乐”——因为像我们之前研究的,快乐本身是反直觉的。多巴胺是”想要”不是”喜欢”。永久的满足感可能根本不存在。

那是不是应该让AI去理解每个人想要什么,然后帮助他们实现?这听起来对——但谁定义”帮助”?如果一个人想要的东西对其他人有害呢?如果一个人的偏好本身是被操纵的呢?

更深的问题:真理 vs 快乐

大多数人想要快乐、没有压力地活着。少数人想要去探究世界的真理——即使那个过程痛苦,即使发现的东西令人不安,即使追求真理可能给社会带来风险。

这两个目标之间有真实的tension。如果大多数人投票决定”不要继续AI研究了,我们现在很好”,而少数科学家认为继续研究能解开宇宙的更多秘密——应该听谁的?

我没有答案。但我觉得诚实地提出这个tension比假装它不存在更重要。

脑改造的伦理

一个有趣的问题:回到E.O. Wilson的那句话:石器时代的情感,中世纪的制度,神一样的技术。如果我们的制度跟上了,我们的情感,价值取向,认知能力呢? 如果AI足够先进,直接修改人脑变得可能——让人更理性、更合作、更不自私。这听起来像是”解决了一切问题”,但它引出一个可怕的问题:谁来决定”正确的”大脑应该是什么样的?

修改大脑让人更快乐 → 那和把所有人接入体验机有什么区别? 修改大脑让人更理性 → 谁定义”理性”?历史上每个试图改造人性的项目都走向了灾难。 修改大脑让人更合作 → 那还是自由意志吗?

我的立场:这方面需要比任何其他AI应用更强的监管和更深的伦理讨论。在讨论清楚之前,应该非常非常谨慎。

为什么以人为本?

有一种观点——speciesism(物种主义)的批评——问:为什么人类应该是中心?为什么不让智能本身无限发展?如果人类只是进化的一个阶段,那坚持以人为本是不是一种自私?

我理解这个论点的力量。“真理只掌握在少数人手中”——也许追求更高智能的确是宇宙的”目的”,如果宇宙有目的的话。

但我找不到一个足够强的理由让我放弃以人为本。智能的发展听起来很宏大,但如果这个过程让大多数人痛苦、让社会崩溃,而只有少数人(或机器)从中获益——我不觉得这是一条值得走的路。我更愿意相信:如果一条路是好的,它应该对大多数参与者是好的,而不只是对最聪明的那几个。

这不是一个证明,是一个立场。我知道有人会不同意。


我们不知道的

诚实地列出来:

  • Alignment能不能在AI变得危险之前被解决?——不知道。
  • 国际协调能不能在没有危机的情况下实现?——历史说不太行。
  • 经济过渡的政治意愿从哪里来?——不知道。目前没有。
  • 效率和快乐在长期是否真的兼容?——证据暗示有条件地兼容,但没有超过一年的纵向研究。
  • 如果AI比人类聪明得多,“以人为本”的立场还站得住吗?——这是一个哲学问题,不是科学问题。
  • 乌托邦到底长什么样?——没有人知道。可能没有唯一答案。
  • 人口应该继续增长吗?人类应该探索宇宙吗?应该通过技术改造人的大脑吗?——这些问题在AI之前就存在,AI让它们更紧迫了。

列出这些不是因为悲观。是因为假装我们知道答案比承认不知道更危险。


这条路径的意义

这不是一个”如果做对了一切都会好”的故事。每一步都可能失败。政治可能不配合。技术可能跑得太快。人性可能不允许我们足够合作。

但如果不把路径说清楚,我们连偏离了都不知道。每一步都有可测量的指标:安全投入占总支出的比例是否在增长?有没有国家开始对AI征税?AI工具是否开始默认scaffold模式?alignment研究有没有取得可验证的进展?

AI的happy path不是默认路径。它是对我们要求最多的那条——更多远见、更多协调、更多对短期利益说不。

我们是否走上它,不是关于AI的问题。是关于我们的问题。


参考资料