在写完谁在治理AI和AI的理想路径之后,一个问题不断出现:个人到底能做什么?
诚实的回答:AI治理现在缺的不是政策方案,而是公众压力。几十个组织在用极少的预算做严肃的工作——全球AI安全支出大约每年2-4亿美元,而企业AI投资是2520亿美元。很多组织需要人比需要想法更迫切。
这是一份实用指南。每个组织标注了做什么、门槛多高、怎么参与。不管你是学生、工程师、研究者还是刚开始关注这个话题——都有入口。
门槛分级:
- ⭐ 任何人(有兴趣就行)
- ⭐⭐ 需要一定背景(本科、技术技能或相关经验)
- ⭐⭐⭐ 需要专业背景(硕博、研究经验或行业经验)
- ⭐⭐⭐⭐ 需要顶尖背景(博士+发表、教授、资深行业)
任何人今天就能做的
不需要任何credentials。
| 行动 | 在哪 | 需要什么 |
|---|---|---|
| 签署AI安全公开信 | CBPAI / FLI / CAIS | 邮箱 |
| 给你的国会议员/人大代表写信支持AI监管 | 你的选区 | 5分钟。70-86%的公众支持AI监管——政治家需要听到 |
| 加入当地EA group | 全球大多数城市 | 出现 |
| 参加Pause AI活动 | 全球有chapters | 出现 |
| 读一份METR、GovAI或Stanford HAI的报告 | 线上 | 30分钟 |
| 用80,000 Hours做职业规划 | 线上 | 30分钟 |
| 在社交媒体上分享可靠的AI信息(不是炒作) | 你的账号 | 判断力 |
| 给资金不足的AI安全组织捐款 | FLI, CAIS, METR | 任何金额 |
这些行动看起来小。它们可能是这份清单上最有影响力的。AI治理停滞不是因为政策方案不存在,而是因为没有足够的政治压力去执行。每一个联系代表、加入组织或捐款的人都在改变这个等式。
美国
研究组织
MIRI(机器智能研究所)— 最早的alignment研究组织(2000年成立)。数学基础的AI alignment理论研究。Berkeley。⭐⭐⭐⭐
CHAI(人类兼容AI中心)— Stuart Russell在Berkeley的alignment研究中心。⭐⭐⭐ 有时招本科研究助理。
METR(模型评估与威胁研究)— 测量AI到底能做什么。产出了任务视界翻倍等关键数据。报告公开,值得所有人读。⭐⭐⭐
Apollo Research — 检测AI欺骗行为。发现了前沿模型的scheming能力。⭐⭐⭐ London/远程。
FAR.AI — AI安全研究孵化器。帮助新人启动alignment项目。比MIRI/Redwood门槛低,明确设计为入口。 ⭐⭐⭐ 有薪fellowship。Berkeley。
政策与治理
Center for AI Safety(CAIS)— 发起了”AI灭绝风险”声明(Hinton、Bengio、Altman等签署)。有fellowship项目给研究生和早期职业研究者。⭐⭐ San Francisco。
AI Now Institute — AI的社会影响:劳工、公平、企业权力。NYU。⭐⭐
AI Policy Institute — 直接参与AI安全立法游说。Washington DC。⭐⭐
OpenResearch — 做了美国最大的UBI实验(Altman支持)。⭐⭐⭐
AI Futures Project — Daniel Kokotajlo(前OpenAI治理研究员)创立。发布了AI 2027情景。⭐⭐⭐
学术
Stanford HAI — 年度AI Index。研究、政策和公开活动。有本科研究机会。⭐⭐⭐研究 / ⭐公开活动。
倡导
Future of Life Institute(FLI)— 组织了2023年暂停公开信(33,000+签名)。也发放研究资助(年预算$17M)。⭐任何人可以签信/参加/捐款。⭐⭐⭐申请grants。
Pause AI — 草根运动。组织公众抗议。全球有chapters。⭐任何人。志愿者运行。
Center for Humane Technology — Tristan Harris和Aza Raskin创立。“The AI Dilemma”。⭐公开内容。⭐⭐志愿者机会。
公益
AI4ALL — AI多样性。高中生项目。成年人可以做导师。⭐
DataKind — 数据科学公益。志愿者项目。⭐⭐需要数据/编程。
国际
GovAI(牛津AI治理中心)— 可能是最有影响力的AI治理研究组织。发布了算力治理框架。有竞争性的PhD summer fellowship。⭐⭐⭐ 研究报告公开且质量极高。
AI Safety Camp — 数周的alignment研究训练营。如果你有技术背景但不在alignment领域,这是最好的入口。 明确欢迎新人。⭐⭐ 免费(有时提供资助)。全球/远程。
Alignment Forum / LessWrong — alignment研究讨论的主要线上社区。重要研究经常先出现在这里。⭐阅读 / ⭐⭐参与讨论。
80,000 Hours — 高影响力职业指导。详细的AI安全职业分析。免费1对1咨询。⭐任何人。
EA社区 — AI安全是核心关注。大多数城市有本地group。有grants用于AI安全项目。⭐任何人可以加入。
中国
中国的AI安全/治理独立民间组织明显更少。大部分是政府下属研究机构。
中国信通院(CAICT)— 工信部直属。发布AI白皮书,参与政策制定。⭐⭐⭐ 公开报告可读。
清华AI研究院 — 张钹院士领导。AI研究和治理。⭐⭐⭐⭐
智源研究院(BAAI)— 发布了”北京AI原则”。⭐⭐⭐
Concordia AI — 少数搭建中美AI安全桥梁的组织之一。 双语研究和交流。如果你中英双语且关心这个领域,这是独特有价值的。⭐⭐⭐ AI/政策背景+双语。
有效利他主义中国 — 小但在增长。大城市有本地活动。⭐
中文AI信息来源: 机器之心、量子位、AI前线(微信公众号)覆盖AI发展。AI安全专门内容很少——大多数严肃讨论发生在英文世界,这本身就是一个障碍。
观察
中国的民间社会缺口最明显。 几乎所有独立AI安全/治理组织都在美国和英国。中国有政府下属研究所但几乎没有独立民间力量。考虑到中国是AI治理最重要的两个国家之一,这是一个关键缺口。
大部分组织严重缺钱。 全球AI安全NGO年预算合计约$50-100M——不到训练一个前沿模型的费用。捐款,即使很少,影响力不成比例地大。
技术人的最佳入口是AI Safety Camp。 多位alignment研究者从这里起步。如果你有工程或ML技能想做alignment,从这里开始。
非技术人能做的最有影响力的事是制造政治压力。 给代表写信。和身边人谈AI治理。分享有根据的(不是炒作的)内容。投票给认真对待AI的候选人。AI治理的约束不是想法——是政治意愿。政治意愿来自人。
参考资料