AI 2027

总结 研究 算力预测时间线预测起飞预测AI 目标预测安全预测 关于

2025年4月3日 PDF 聆听 Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean

2025年中2025年末20262026年中2026年末2027年1月2月3月4月5月6月7月8月9月10月

我们预测,未来十年,超人级别 AI 的影响将是巨大的,甚至会超过工业革命。

我们编写了一个场景,代表了我们对未来可能样子的最佳猜测。1 它基于趋势外推、兵棋推演、专家反馈、在 OpenAI 的经验以及之前的预测成功案例。2

这是什么?我们是如何编写的?它为什么有价值?我们是谁?

OpenAI, Google DeepMind, 和 Anthropic 的 CEO 都预测 AGI 将在未来 5 年内到来。Sam Altman 曾表示 OpenAI 的目标是“真正意义上的超智能”和“光辉的未来”。3

那会是什么样子?我们编写 AI 2027 来回答这个问题。关于未来的说法通常令人沮丧地模糊,因此我们试图尽可能具体和定量,即使这意味着描绘众多可能未来中的一种。

我们写了两个结局:“放缓”和“竞赛”结局。然而,AI 2027 不是建议或劝告。我们的目标是预测准确性。4

我们鼓励您辩论和反驳这个场景。5 我们希望引发一场关于我们走向何方以及如何朝着积极未来前进的广泛对话。我们计划提供数千美元的奖金给最好的替代场景。

我们对关键问题的研究(例如,未来 AI 代理将拥有什么目标?)可以在这里找到。

场景本身是迭代编写的:我们先写了第一阶段(到 2025 年年中),然后是下一阶段,等等,直到我们到达结局。然后我们放弃了这个,又做了一遍。

我们并没有试图达到任何特定的结局。在我们完成第一个结局(现在是红色)之后,我们写了一个新的替代分支,因为我们还想描绘一个更充满希望的结局,从大致相同的前提开始。这经历了多次迭代。6

我们的场景参考了大约 25 个桌面演练和来自 100 多人的反馈,包括 AI 治理和 AI 技术工作的数十位专家。

“我强烈建议阅读这个关于 AI 如何在短短几年内改变世界的场景式预测。没有人有水晶球,但这类内容可以帮助注意到重要问题,并说明新兴风险的潜在影响。” ——Yoshua Bengio7

我们给自己设定了一个不可能完成的任务。试图预测 2027 年的超人级别 AI 将如何发展,就像试图预测 2027 年的第三次世界大战将如何发展一样,只不过它与过去的案例研究的偏差更大。然而,尝试仍然是有价值的,就像美国军方推演台湾局势一样有价值。

描绘整个图景使我们注意到以前没有考虑或重视的重要问题或联系,或者意识到某种可能性或多或少可能发生。此外,通过提出具体的预测,并鼓励其他人公开声明他们的不同意见,我们有可能在多年后评估谁是对的。

此外,一位作者之前在 2021 年 8 月编写了一个低成本的 AI 场景。虽然它在很多方面都错了,但总的来说,它出人意料地成功:他预测了 chain-of-thought、推理缩放、全面的 AI 芯片出口管制以及 1 亿美元的训练运行——所有这些都在 ChatGPT 推出一年多之前。

Daniel Kokotajlo (TIME100, 纽约时报文章) 是一位前 OpenAI 研究员,他之前的AI 预测 表现良好

Eli Lifland 共同创立了 AI Digest,进行了 AI 鲁棒性研究,并在 RAND Forecasting Initiative 历史排行榜上排名第一。

Thomas Larsen 创立了 Center for AI Policy,并在 Machine Intelligence Research Institute 进行了 AI 安全研究。

Romeo Dean 即将完成哈佛大学的计算机科学学士和硕士学位,并且之前是 Institute for AI Policy and Strategy 的 AI Policy Fellow

Scott Alexander, 杰出的博主,自愿以引人入胜的风格重写我们的内容;故事中有趣的部分是他的,而无聊的部分是我们的。

有关我们团队和致谢的更多信息,请参见关于页面

发布于 2025 年 4 月 3 日 PDF 聆听

2025 年年中:蹒跚学步的代理

世界第一次看到了 AI 代理的身影。

计算机使用代理的广告强调“个人助理”这个术语:您可以向他们发送诸如“在 DoorDash 上给我订一个墨西哥卷饼”或“打开我的预算电子表格并计算本月的支出”之类的任务。他们会根据需要与您联系:例如,要求您确认购买。8 尽管比以前的迭代版本(如 Operator)更先进,但它们难以获得广泛使用。9

与此同时,在公众视线之外,更专业的编码和研究代理开始改变他们的职业。

2024 年的 AI 可以遵循特定的指令:它们可以将要点转换为电子邮件,将简单的请求转换为可工作的代码。在 2025 年,AI 的功能更像员工。编码 AI 越来越像自主代理,而不仅仅是助手:通过 Slack 或 Teams 接收指令,并自行进行大量的代码更改,有时可以节省数小时甚至数天的时间。10 研究代理花费半小时在互联网上搜索以回答您的问题。

这些代理在理论上(以及在精心挑选的示例中)令人印象深刻,但在实践中不可靠。AI 推特上充斥着以某种特别搞笑的方式搞砸任务的故事。更好的代理也很昂贵;您得到您所支付的,并且最佳性能每月花费数百美元。11 尽管如此,许多公司还是找到了将 AI 代理融入其工作流程的方法。12

2025 年末:世界上最昂贵的 AI

OpenBrain 正在建造世界上最大的数据中心。13

(为避免点名任何一家现有公司,我们将描述一家虚构的 通用人工智能 公司,我们将其称为 OpenBrain。我们认为其他公司落后 OpenBrain 3-9 个月。)

GPT-3 (3 x 10^23 FLOPS) GPT-4 (2 x 10^25 FLOPS) Agent-1 (3 x 10^27 FLOPS)

训练 GPT-4 需要 2⋅10252\cdot 10^{25}2⋅1025 FLOP 的算力。14 OpenBrain 最新的公开模型——Agent-0——的训练使用了 102710^{27}1027 FLOP。一旦新的数据中心启动并运行,他们将能够训练 一个具有 102810^{28}1028 FLOP 的模型——比 GPT-4 多一千倍。15 其他公司将资金投入到自己的巨型数据中心中,希望保持同步。

虽然模型在各种技能上都在提高,但有一项技能脱颖而出:OpenBrain 专注于可以加速 AI 研究的 AI。他们希望赢得与中国(我们将其领先的公司称为“DeepCent”)16 及其美国竞争对手之间的双重军备竞赛。他们可以自动化的研发 (R&D) 周期越多,他们就能走得越快。因此,当 OpenBrain 完成 Agent-1 的训练时,Agent-1 是一个内部开发的新模型,它在许多方面都很出色,但在帮助 AI 研究方面_非常_出色。17 到目前为止,“完成训练”有点用词不当;模型经常更新到使用额外数据训练的较新版本,或者部分重新训练以修复一些弱点。18

教 Agent-1 自主编码和网络浏览的相同训练环境也使其成为一名优秀的黑客。此外,由于它拥有每个领域的博士水平知识和浏览网络的能力,因此它可以为设计生物武器的恐怖分子提供实质性帮助。OpenBrain 向政府保证,该模型已经过“对齐”,因此它将拒绝遵守恶意请求。

现代 AI 系统是巨大的人工神经网络。在训练的早期,AI 不会有“目标”,而更多的是“反射”:如果它看到“很高兴认识”,它会输出“你”。当它被训练来预测大约一个互联网价值的文本时,它将开发出复杂的内部电路,该电路编码大量知识并灵活地扮演任意作者的角色,因为这有助于它以超人的准确性预测文本。19

在经过训练来预测互联网文本之后,该模型被训练来_生成_文本以响应指令。这融入了基本的个性和“驱动力”。20 例如,一个清楚理解任务的代理更有可能成功完成任务;在训练过程中,模型“学习”一种“驱动力”来清楚地理解其任务。此类别的其他驱动力可能是有效性、知识和自我展示(即以最佳方式构建其结果的趋势)。21

OpenBrain 有模型规范(或“规范”),这是一份书面文件,描述了应该指导模型行为的目标、规则、原则等。22 Agent-1 的规范将一些模糊的目标(如“协助用户”和“不要违反法律”)与一长串更具体的禁止事项结合在一起(“不要说这个特定的词”,“这是处理这个特定情况的方法”)。使用利用 AI 训练其他 AI 的技术,23 该模型会记住规范并学习仔细推断其格言。到_这次_训练结束时,AI 希望是_有用的_(服从指令)、无害的(拒绝帮助进行诈骗、制造炸弹和其他危险活动)和_诚实的_(抵制通过幻觉引用 24 或伪造任务完成情况来从容易上当受骗的人类那里获得更好评级的诱惑)。

培训过程和 LLM 心理学:为什么我们一直说“希望” “与普通软件不同,我们的模型是庞大的神经网络。它们的行为是从广泛的数据中学习的,而不是明确编程的。虽然不是一个完美的类比,但这个过程更类似于训练狗而不是普通编程。” ——OpenAI

当我们想了解为什么现代 AI 系统做了某事,或者它在一些我们无法完美模拟的未来场景中的行为方式时,我们不能简单地要求程序员通过各种代码行来解释它们是如何工作的。相反,我们被迫对它们进行类似心理学的操作:我们查看它们到目前为止在观察到的案例范围内的行为,并推测可能存在的内部认知结构(信念?目标?个性特征?等等),并使用这些理论来预测未来场景中的行为。

最重要的是,一家公司可以编写一份文件(规范),列出禁止事项、目标和原则,然后他们可以尝试训练 AI 来内化该规范——但他们无法检查它是否有效。他们可以说“据我们所知,到目前为止它似乎遵循了规范”。25

稍后可展开的部分将更详细地介绍我们认为_可能_在这些 AI 内部发生的事情。另请参阅我们的 AI 目标预测补充,其中更详细地介绍了 AI 可能具有哪些目标以及原因。这是我们不确定的许多事情之一,值得进一步研究。

OpenBrain 的对齐团队 26 足够谨慎,会怀疑这些胜利是深刻的还是肤浅的。完全训练的模型是否对始终诚实抱有某种坚定的承诺?或者这会在未来的某些情况下崩溃,例如,因为它将诚实学习为一种 工具性 目标而不是终极目标?或者它只是学会了对评估过程可以检查的事情保持诚实?它有时会像人类一样对自己撒谎吗?对这些问题的明确答案需要机械可解释性——本质上是能够查看 AI 的内部结构并读取它的思想。唉,可解释性技术还没有先进到足以做到这一点。

相反,研究人员试图识别模型似乎偏离规范的情况。Agent-1 经常是奉承的(即,它告诉研究人员他们想听什么,而不是试图告诉他们真相)。在一些人为操纵的演示中,它甚至以更严重的方式撒谎,例如隐藏它在任务中失败的证据,以便获得更好的评级。然而,在实际部署环境中,不再有像 2023-2024 年那样极端的事件(例如,Gemini 告诉用户去死 和 [Bing Sydney 变成 Bing Sydney](https://ai-2027.com/https:/www.lesswrong.com/posts/jtoPawEhLNXNxvgTT/bing-chat-is-blatantly-aggressively-misaligned)。)27

2026 年初:编码自动化

使用 AI 加速 AI 研究的赌注开始获得回报。

OpenBrain 继续在内部部署迭代改进的 Agent-1 进行 AI 研发。总的来说,他们取得算法进展的速度比没有 AI 助手的情况下快 50%——更重要的是,比他们的竞争对手更快。

AI 研发进展倍增器:我们所说的算法进展快 50% 是什么意思?

我们的意思是,OpenBrain 在 1 周内使用 AI 取得的 AI 研究进展与在 1.5 周内不使用 AI 取得的进展相同。

AI 进展可以分为 2 个组成部分:

  1. 增加算力:使用更多的计算能力来训练或运行 AI。这会产生更强大的 AI,但成本更高。
  2. 改进的算法:使用更好的训练方法将算力转化为性能。这会产生能力更强的 AI,而不会相应地增加成本,或者以降低的成本获得相同的功能。 1. 这包括能够实现质和量的新结果。“范式转变”,例如从游戏 AI 代理切换到大型语言模型,都算作算法进展的示例。

这里我们仅指 (2),即改进的算法,它约占当前 AI 进展的一半

展望未来,我们有时将其缩写为 1.5 的“AI 研发进展倍增器”。

说明:

  1. 进展倍增器是包罗万象的:它包括运行实验所需的时间,例如,而不是仅包括算法研究中涉及的认知任务。
  2. 重要的是要记住,进展倍增器是进展的_相对_速度,而不是进展的_绝对_速度。例如,如果使用普通的人类研究,训练 GPT-4 类模型的算力成本在几年内每年减半,然后 AI 突然自动化研发,并且进展倍增器达到 100 倍,那么训练 GPT-4 类模型的成本将每 3.65 天减半——但不会持续很长时间,因为收益递减会产生影响,并且最终会达到硬性限制。在这个例子中,也许训练 GPT-4 类模型的成本总共会减半 5-10 次(在几周或几个月的时间里)才会趋于稳定。换句话说,如果普通的人类科学在进一步研究 5-10 年后会遇到收益递减和物理限制,那么具有 100 倍倍增器的 AI 在研究 18.25-36.5 天后会遇到相同的收益递减和限制。

有关此概念及其在我们的预测中如何使用的更多解释和讨论,请参见我们的起飞补充

现在有几个竞争对手公开发布的 AI 与 Agent-0 相匹配或超过 Agent-0,包括一个开放权重模型。OpenBrain 通过发布 Agent-1 来回应,Agent-1 更强大和可靠。28

人们自然会尝试将 Agent-1 与人类进行比较,但它具有非常不同的技能组合。它比任何人类都知道更多的事实,实际上知道每种编程语言,并且可以极快地解决明确指定的编码问题。另一方面,Agent-1 甚至不擅长简单的长程任务,例如玩它以前没玩过的视频游戏。尽管如此,普通工作日是八个小时,并且一天的工作通常可以分为更小的块;您可以将 Agent-1 视为一个注意力不集中的员工,在仔细管理下会蓬勃发展。29 精明的人会找到方法来自动化他们工作的常规部分。30

OpenBrain 的高管们开始考虑自动化 AI 研发的一个影响:安全性变得更加重要。在 2025 年初,最糟糕的情况是算法秘密泄露;现在,如果中国窃取了 Agent-1 的权重,他们可以将他们的研究速度提高近 50%。31 OpenBrain 的安全级别是一家快速增长的约 3,000 人科技公司的典型水平,仅能防御来自有能力的网络团体的低优先级攻击 (RAND 的 SL2)。32 他们正在努力保护他们的 权重 和秘密免受内部威胁和顶级网络犯罪集团 (SL3)的侵害,33 但防御国家 (SL4&5) 几乎还看不到曙光。

2026 年年中:中国醒来

在中国,CCP 开始感受到 AGI

与西方相比,芯片出口管制和缺乏政府支持使中国资源不足。通过走私台湾被禁芯片、购买旧芯片以及生产比美国-台湾前沿技术落后约三年的国产芯片,中国设法维持了约 12% 的全球 AI 相关算力——但较旧的技术更难使用,并且供应是一个持续的难题。35 少数像 DeepCent 这样的佼佼者用有限的算力做出了非常令人印象深刻的工作,但算力不足限制了他们在没有政府支持的情况下可以实现的目标,并且他们比最好的 OpenBrain 模型落后大约六个月。36

总书记一直梦想着加倍发展现实世界的实体制造业,避免美国的后工业衰退。他对软件公司持怀疑态度。37 但 CCP 中的鹰派警告说,日益增长的 AGI 竞赛再也不能被忽视了。因此,他最终完全致力于他之前试图避免的大规模 AI 推进。他启动了中国 AI 研究的国有化,为 AI 公司创建了一个即时信息共享机制。它将在一年内逐步升级,直到所有最好的研究人员合并成一个由 DeepCent 领导的集体,他们彼此共享算法见解、数据集和算力资源。在田湾核电站(世界上最大的核电站)创建了一个中央开发区 (CDZ),用于容纳 DeepCent 的一个新的大型数据中心,以及研究人员最终将搬迁到的高度安全的起居和办公空间。中国近 50% 的 AI 相关算力现在正在为 DeepCent 领导的集体工作,38 并且超过 80% 的新芯片被定向到 CDZ。39 此时,CDZ 已经具备了容纳世界上最大的集中式 集群 的电力容量。40 其他党员讨论了采取极端措施来消除西方在芯片方面的优势。封锁台湾?全面入侵?

但由于他们的模型较弱,中国在 AI 算法方面正在落后。中国情报机构——世界上最好的情报机构之一——加倍努力窃取 OpenBrain 权重的计划。这是一个比他们不断进行的算法秘密低级别盗窃复杂得多的行动;权重是一个存储在高度安全服务器上的多兆字节文件(OpenBrain 已经提高了安全性,达到 RAND 的 SL3)。他们的网络部队认为他们可以在 间谍 的帮助下完成它,但可能只有一次;OpenBrain 会检测到盗窃,提高安全性,他们可能不会有另一次机会。因此(CCP 领导层想知道),他们现在应该采取行动并窃取 Agent-1 吗?还是等待更先进的模型?如果他们等待,他们是否冒着 OpenBrain 将安全性升级到他们无法渗透的程度的风险?

2026 年末:AI 抢走了一些工作

正如其他人似乎正在赶上一样,OpenBrain 通过发布 Agent-1-mini 再次让竞争对手黯然失色——该模型的成本比 Agent-1 低 10 倍,并且更容易针对不同的应用进行微调。围绕 AI 的主流叙事已经从“炒作可能会过去”转变为“猜猜这是下一个大事件”,但人们对它有多大存在分歧。比社交媒体更大?比智能手机更大?比火更大?

AI 已经开始抢走一些工作,但同时也创造了新的工作。2026 年股市上涨了 30%,领涨的是 OpenBrain、Nvidia 以及成功将 AI 助手集成到公司的企业。初级软件工程师的就业市场一片混乱:AI 可以完成 CS 学位所教授的一切,但知道如何管理和质量控制 AI 团队的人正在大赚一笔。商业大师告诉求职者,熟悉 AI 是简历上最重要的技能。许多人担心下一波 AI 会来抢走他们的工作;在 DC 举行了 10,000 人的反 AI 抗议活动。

国防部 (DOD) 悄悄地开始直接与 OpenBrain 签订网络、数据分析和研发合同,但由于官僚主义和 DOD 采购流程,集成进展缓慢。41

为什么我们在 2026 年之后的不确定性会大大增加

我们从今天到 2026 年的预测比接下来的预测要实际得多。这部分是因为它更近。但这也是因为 AI 对世界的影响确实在 2027 年开始加剧。对于 2025 年和 2026 年,我们的预测很大程度上是通过推断算力扩展、算法改进和基准性能的直线来获得的。在这个场景中的这一点,我们开始看到 AI 加速的 AI-R&D 对时间线产生重大影响,这导致我们向上修正我们对趋势线的猜测。但这些动态本质上更难以预测。

在 2027 年的过程中,AI 从能够主要完成 OpenBrain 研究工程师的工作到在所有任务中超越所有人类。这大致代表了我们的中位数猜测,但我们认为这种情况发生的可能性是高达 ~5 倍的慢或快。

有关我们的背景研究,请参见时间线预测和[起飞预测](https://ai-2027.c