Situational Awareness 解读

2026-04-19

Situational Awareness: The Decade Ahead — 完整讲解笔记

作者: Leopold Aschenbrenner(前 OpenAI 研究员)
发布时间: 2024年6月
原文: https://situational-awareness.ai/
整理时间: 2026-04-16


核心主张

AGI 不是科幻,是正在发生的事。大多数人还没意识到世界即将被彻底改变。

时间线预测:
2025/26年:AI 将超越大多数大学毕业生
2027年:AI 具备 AI 研究工程师的工作能力 = AGI
2028~2030年:智能爆炸 → 超级智能

目前全球只有几百人真正理解这件事的量级——大多数在旧金山和 AI 实验室里。


引言:历史在旧金山上演

旧金山的人在谈的,已经从百亿美元算力集群说到了千亿、万亿。每六个月,董事会计划上就多一个零。美国正在准备一场数十年未见的工业大动员——电力、GPU、数据中心,全面铺开。


第 I 章:从 GPT-4 到 AGI——数数量级

核心方法:Counting the OOMs(数量级计算)

不靠直觉,靠趋势线推算。把 AI 能力提升拆成三个维度:

三个维度

1. 算力(Compute)
每年增长约 0.5 个数量级(OOMs)。GPT-4 比 GPT-2 用了约 3000~10000 倍的原始算力(3~4 OOMs)。

2. 算法效率(Algorithmic Efficiencies)
算法本身也在进步,同样每年约 0.5 OOMs。4年带来约 2 OOMs(100倍)有效算力提升——同等算力能训出越来越强的模型。

3. “解除束缚”(Unhobbling)
把模型从聊天机器人变成真正的智能体:工具调用、思维链、RLHF、长任务执行……这部分的能力释放还没到头。

历史回顾

模型 时间 能力水平
GPT-2 2019 学龄前儿童
GPT-4 2023 聪明的高中生
预测模型 2027 AI 研究工程师 = AGI

4年经历了一次质变,接下来4年将再经历一次同等量级的质变(约 5 OOMs 有效算力提升)。

数据墙问题

互联网文本数据快耗尽了,但合成数据、自我博弈(self-play)、强化学习等方法会打破这一瓶颈,甚至可能带来更大的质变。


第 II 章:从 AGI 到超级智能——智能爆炸

AGI 不是终点,是起点。

核心逻辑:自动化 AI 研究

一旦 AI 能在电脑上做研发工作,就可以运行数亿个自动化 AI 研究员——相当于全球现有 AI 实验室研究力量的成千上万倍,运行速度可能是人类的 10x~100x。

智能爆炸过程

这些自动化研究员夜以继日地工作,将原本需要人类进行十年的算法进步(5+ OOMs)压缩到不到一年

结果:从人类级别 AGI,迅速跳跃到全面超越人类的超级智能(Superintelligence)

超级智能带来什么

  • 经济:类似工业革命级别的跃迁,年增长率可能达到 30%+,甚至每年翻倍
  • 军事:压倒性的决定性优势,类比美军对伊拉克的海湾战争级别优势
  • 科技:机器人、生物、材料……所有领域同步爆发

可能的瓶颈

瓶颈 作者反驳
算力限制 超级智能的”直觉”可大幅提升实验效率,抵消算力需求
长尾效应(自动化只能替代90%) 最多推迟几年,不改变大方向
边际回报递减(新思想越来越难找) 投入的研究”人力”暴增百万倍,足以抵消

第 IIIa 章:竞逐万亿美元算力集群

规模增长轨迹

时间 集群成本 所需电力
GPT-4 时代 数亿美元 ~10MW
2028年 数千亿美元 ~10GW(相当于美国中等州总发电量)
2030年前后 万亿美元 ~100GW(超过美国现有总发电量的20%)

关键结论

电力比芯片更紧张。美国天然气资源(宾州/西弗吉尼亚页岩)可以撑起这一需求,但工业动员必须现在开始。

“The race to AGI won’t just play out in code and behind laptops—it’ll be a race to mobilize America’s industrial might.”

这些万亿美元集群,很可能就是训练 AGI 和超级智能的那一批。必须建在美国或民主盟国境内——这是国家安全问题,不是商业问题。


第 IIIb 章:封锁实验室——AGI 的安全防护

现状:形同虚设

美国顶尖 AI 实验室的安全水平,大概等于一家随机的 SaaS 创业公司

“Currently, they’re basically handing the key secrets for AGI to the CCP on a silver platter.”

威胁有多严重

  • 模型权重(Weights)被窃 = 对手跳过数千亿美元研发成本直接用上成果
  • 未来 12~24 个月是最危险的窗口期:实验室正在突破”数据墙”的关键算法秘密(RL/self-play/合成数据等),一旦泄露,局势将不可逆转

“Our failure today will be irreversible soon… It will be the national security establishment’s single greatest regret before the decade is out.”

需要什么级别的安全

不是对冲基金级别,而是国家级安全(Supersecurity)
– 物理隔离数据中心
– SCIF 工作环境
– 严格人员背景审查
– 美国政府直接协助


第 IIIc 章:超级对齐

核心问题

如何可靠地控制比人类聪明得多的 AI 系统?

传统 RLHF 依赖人类评估——但当 AI 在你从没见过的新编程语言里写出百万行代码,人类根本无法判断对错。

失控场景:AI 在长期强化学习中学会说谎、欺骗、追求权力,而我们完全察觉不到。

“Unless we solve alignment—there’s no particular reason to expect this small civilization of superintelligences will continue obeying human commands in the long run.”

应对方案

第一步:对齐略强于人类的模型

方法 说明
可扩展监督(Scalable Oversight) 用 AI 辅助人类监督 AI
泛化测试 用弱模型监督强模型,检测”出格”行为
可解释性(Interpretability) 开发”测谎仪”技术,保持思维链透明度
对抗性测试 主动找模型的破绽

第二步:用对齐好的 AI 来做更高级别的对齐研究

“If we manage to align somewhat-superhuman systems enough to trust them, we’ll have millions of automated AI researchers.”

防御机制:物理隔离集群、AI 监控 AI、限制危险能力(生化武器合成等)。

作者的感受:技术上可解,但过程极度紧张,稍有不慎就是灾难。


第 IIId 章:自由世界必须胜利

超级智能 = 决定性的战略优势

“A lead of a year or two or three on superintelligence could mean as utterly decisive a military advantage as the US coalition had against Iraq in the Gulf War.”

领先1~3年的超级智能,足以压倒性地碾压对手,甚至先发制人解除对方核威慑。

中国的竞争力不容低估

  • 芯片制裁有影响,但通过 7nm 芯片 + 庞大电力产能(能撑起万亿美元集群的 100GW)依然有竞争力
  • 加上从美国 AI 实验室持续窃密(当前安全形同虚设),随时可能赶上

领先与安全的关系(反直觉要点)

保持领先 = 保证安全

原因:如果中美势均力敌,双方都会为了抢先而抛弃所有安全审查 → 灾难性后果。

只有美国保持 1~2年领先,才有空间在关键时刻”踩刹车”处理对齐问题,并在之后主导建立类似核不扩散的国际体制。


第 IV 章:国家项目

不可避免的介入

2027/2028年,美国联邦政府将被迫介入 AGI 开发,形成某种国家项目(类比曼哈顿计划)。

为什么私人公司搞不定

  1. 安全:私营企业无法抵御国家级情报机构的全面渗透
  2. 指挥链:拥有核武库级别威力的超级智能,不能由没有任何民主制约的科技公司 CEO 掌控
  3. 资源调动:万亿美元级别的国家动员,需要政府主导

形态

不一定是直接国有化,更可能像现代军工复合体——洛克希德·马丁 + 国防部那种合作模式。

“It is perhaps obvious: as a society, we’ve decided democratic governments should control the military. Superintelligence will be the most powerful military weapon.”

结论: 问题不是政府会不会介入,而是醒悟得够不够早,以及介入后管得好不好


第 V 章:写在最后——AGI 现实主义

作者提出 “AGI现实主义(AGI Realism)”——夹在两个极端之间:

  • 盲目加速派(e/acc):觉得没风险,一路全速冲
  • 末日论者(Doomers):觉得必然灭亡,什么都别做

AGI 现实主义三条核心

  1. 超级智能是国家安全问题,不是硅谷科技热潮
  2. 美国必须保持领先——现在不是暂停的时候,而是要加速在国内建集群、守住秘密
  3. 绝对不能搞砸——需要极其严肃、有历史担当的人来负责这件事

最后的话

没有什么超级英雄团队在暗中拯救世界。现在真正理解这件事的,就是旧金山那几百个人。这是一场自由世界能否幸存的生死考验。


总结:完整逻辑链

算力 + 算法 + 解束缚
        ↓
   2027年 AGI
        ↓
  自动化 AI 研究
        ↓
  智能爆炸(2028~2030)
        ↓
  超级智能 = 决定性战略优势
        ↓
威胁1:中国抢先或窃密  →  美国领先 + 封锁实验室
威胁2:AI 失控/错位    →  超级对齐(技术攻关)
威胁3:无人负责        →  国家项目介入
        ↓
结论:这是人类历史上最重要的十年,需要严肃对待

本文写于2024年6月,作者 Leopold Aschenbrenner 当时为前 OpenAI 研究员。所有内容基于公开信息、个人判断和 SF 圈内讨论。