[中文正文内容]

AlphaEvolve:一个由 Gemini 驱动的用于设计高级算法的编码 Agent

发布日期:2025 年 5 月 14 日 作者:AlphaEvolve 团队

分享

代码的彩色抽象数字景观。展示高性能代码中的峰值。

新的 AI Agent 通过结合大型语言模型的创造力和自动评估器来进化数学和计算中实际应用所需的算法

大型语言模型 (LLM) 具有卓越的通用性。 它们可以总结文档、生成代码,甚至集思广益新的想法。 现在,我们已经扩展了这些功能,以应对数学和现代计算中的基本且高度复杂的问题。

今天,我们宣布推出 AlphaEvolve,这是一种由大型语言模型驱动的进化编码 Agent,用于通用算法的发现和优化。 AlphaEvolve 将我们 Gemini models 的创造性问题解决能力与验证答案的自动评估器配对,并使用进化框架来改进最有希望的想法。

AlphaEvolve 提高了 Google 数据中心、芯片设计和 AI 训练流程的效率,包括训练构成 AlphaEvolve 本身基础的大型语言模型。 它还有助于设计更快的矩阵乘法算法,并为开放的数学问题找到新的解决方案,在许多领域中都显示出令人难以置信的应用前景。

使用大型语言模型设计更好的算法

2023 年,我们首次展示了大型语言模型可以生成用计算机代码编写的函数,以帮助在一个开放的科学问题上发现新的和可证明正确的知识。 AlphaEvolve 是一种 Agent,它可以超越单个函数发现来进化整个代码库并开发更复杂的算法。

AlphaEvolve 利用了一系列最先进的大型语言模型:我们速度最快、效率最高的模型 Gemini Flash 最大限度地扩展了探索的想法范围,而我们最强大的模型 Gemini Pro 通过有见地的建议提供了关键的深度。 这些模型共同提出实现算法解决方案的计算机程序作为代码。

图表显示提示采样器首先为语言模型组装提示,然后生成新程序。这些程序由评估器评估并存储在程序数据库中。此数据库实现了一种进化算法,该算法确定哪些程序将用于未来的提示。

AlphaEvolve 使用自动评估指标来验证、运行和评分提议的程序。 这些指标提供了对每个解决方案的准确性和质量的客观、可量化的评估。 这使得 AlphaEvolve 在可以清晰且系统地衡量进展的广泛领域(如数学和计算机科学)中特别有用。

优化我们的计算生态系统

在过去的一年中,我们已将 AlphaEvolve 发现的算法部署到 Google 的计算生态系统中,包括我们的数据中心、硬件和软件。 这些改进中的每一项的影响都会在我们的 AI 和计算基础设施中成倍增加,从而为我们所有用户构建一个更强大和可持续的数字生态系统。

图表显示 AlphaEvolve 如何帮助 Google 提供更高效的数字生态系统,从数据中心调度和硬件设计到 AI 模型训练。

改进数据中心调度

AlphaEvolve 发现了一种简单但非常有效的启发式方法,可以帮助 Borg 更有效地协调 Google 庞大的数据中心。 该解决方案已投入生产一年多,平均持续恢复 Google 全球计算资源的 0.7%。 这种持续的效率提升意味着在任何给定时刻,可以在相同的计算占用空间上完成更多任务。 AlphaEvolve 的解决方案不仅带来了强大的性能,而且还提供了人类可读代码的显着运营优势:可解释性、可调试性、可预测性和易于部署。

协助硬件设计

AlphaEvolve 提出了一个 Verilog 重写,删除了用于矩阵乘法的关键、高度优化的算术电路中不必要的位。 关键的是,该提案必须通过可靠的验证方法,以确认修改后的电路保持功能正确性。 该提案已集成到即将推出的 Tensor Processing Unit (TPU) 中,这是 Google 的定制 AI 加速器。 通过以芯片设计师的标准语言提出修改建议,AlphaEvolve 促进了 AI 和硬件工程师之间的协作方法,以加速未来专用芯片的设计。

增强 AI 训练和推理

AlphaEvolve 正在加速 AI 性能和研究速度。 通过找到更智能的方式将大型矩阵乘法运算划分为更易于管理的子问题,它将 Gemini 架构中这个至关重要的 kernel 加速了 23%,从而将 Gemini 的训练时间减少了 1%。 由于开发生成式 AI 模型需要大量的计算资源,因此获得的每项效率提升都可以转化为可观的节省。 除了性能提升之外,AlphaEvolve 还大大减少了 kernel 优化所需的工程时间,从专家数周的工作量缩短到自动实验的几天,从而使研究人员能够更快地进行创新。

AlphaEvolve 还可以优化低级别的 GPU 指令。 这个极其复杂的领域通常已经由编译器进行了大量优化,因此人类工程师通常不会直接修改它。 AlphaEvolve 在基于 Transformer-based AI 模型中的 FlashAttention kernel 实现中实现了高达 32.5% 的加速。 这种优化有助于专家查明性能瓶颈,并轻松地将改进纳入其代码库中,从而提高他们的生产力,并使未来能够在计算和能源方面节省成本。

推动数学和算法发现的前沿

AlphaEvolve 还可以为复杂的数学问题提出新的方法。 在为计算机程序提供最少的代码骨架的情况下,AlphaEvolve 设计了一种新颖的基于梯度的优化过程的许多组件,该过程发现了矩阵乘法的多个新算法,矩阵乘法是计算机科学中的一个基本问题。

暂停视频 播放视频

AlphaEvolve 为发现更快的矩阵乘法算法而提出的一系列更改。 在此示例中,AlphaEvolve 提出了对多个组件的广泛更改,包括优化器和权重初始化、损失函数和超参数扫描。 这些更改非常重要,在进化过程中需要 15 个突变。

AlphaEvolve 的程序发现了一种使用 48 次标量乘法来乘以 4x4 复值矩阵的算法,从而改进了 Strassen 在 1969 年提出的算法,该算法以前被认为是此设置中最好的算法。 这一发现证明了我们之前的工作 AlphaTensor 的重大进步,该算法专门用于矩阵乘法算法,并且对于 4x4 矩阵,仅发现了二进制算术的改进。

为了研究 AlphaEvolve 的广度,我们将该系统应用于数学分析、几何、组合学和数论中的 50 多个开放问题。 该系统的灵活性使我们能够在几个小时内完成大多数实验的设置。 据我们所知,在约 75% 的情况下,它重新发现了最先进的解决方案。

在 20% 的情况下,AlphaEvolve 改进了以前已知的最佳解决方案,从而在相应的开放问题上取得了进展。 例如,它推进了 亲吻数问题。 这一几何挑战300 多年来一直吸引着数学家,涉及接触公共单位球体的非重叠球体的最大数量。 AlphaEvolve 发现了 593 个外部球体的配置,并在 11 个维度上建立了新的下限。

前进的道路

AlphaEvolve 展示了从发现特定领域的算法到开发用于应对广泛现实世界挑战的更复杂算法的进展。 我们希望 AlphaEvolve 能够随着大型语言模型的能力不断提高而不断改进,尤其是在它们在编码方面变得更好时。

我们与 People + AI Research team 一起,一直在构建一个友好的用户界面,用于与 AlphaEvolve 交互。 我们计划为选定的学术用户提供 Early Access Program,并探索使 AlphaEvolve 更广泛可用的可能性。 要注册您的兴趣,请填写此表格

虽然 AlphaEvolve 目前应用于数学和计算领域,但其通用性意味着它可以应用于任何其解决方案可以描述为算法且可以自动验证的问题。 我们相信 AlphaEvolve 可以在更多领域(例如材料科学、药物发现、可持续性以及更广泛的技术和业务应用)中发挥变革性作用。

致谢

AlphaEvolve 由 Matej Balog、Alexander Novikov、Ngân Vũ、Marvin Eisenberger、Emilien Dupont、Po-Sen Huang、Adam Zsolt Wagner、Sergey Shirobokov、Borislav Kozlovskii、Francisco J. R. Ruiz、Abbas Mehrabian、M. Pawan Kumar、Abigail See、Swarat Chaudhuri、George Holland、Alex Davies、Sebastian Nowozin 和 Pushmeet Kohli 开发。 这项研究是我们专注于使用 AI 进行算法发现的工作的一部分。

我们衷心感谢 Jean-Baptiste Alayrac、Ankit Anand、Natasha Antropova、Giorgio Arena、Mohammadamin Barekatain、Johannes Bausch、Henning Becker、Daniel Belov、Alexander Belyaev、Sebastian Bodenstein、Sebastian Borgeaud、Calin Cascaval、Indranil Chakraborty、Benjamin Chetioui、Justin Chiu、Christopher Clark、Marco Cornero、Jeff Dean、Gaurav Dhiman、Yanislav Donchev、Srikanth Dwarakanath、Jordan Ellenberg、Alhussein Fawzi、Michael Figurnov、Aaron Gentleman、Bogdan Georgiev、Sergio Guadarrama、Demis Hassabis、Patrick Heisel、Chase Hensel、Koray Kavukcuoglu、Sultan Kenjeyev、Aliia Khasanova、Sridhar Lakshmanamurthy、Sergei Lebedev、Dmitry Lepikhin、Daniel Mankowitz、Andrea Michi、Kieran Milan、Vinod Nair、Robert O'Callahan、Cosmin Paduraru、Stig Petersen、Federico Piccinini、Parthasarathy Ranganatha、Bernardino Romera-Paredes、Georges Rotival、Kirk Sanders、Javier Gomez Serrano、Oleg Shyshkov、Timur Sitdikov、Tammo Spalink、Kerry Takenaka、Richard Tanburn、Terence Tao、Amin Vahdat、JD Velasquez、Dimitrios Vytiniotis、Julian Walker 和 Pengming Wang 的贡献、建议和支持。 有关更多详细信息,请参阅我们的白皮书。

我们要感谢 Armin Senoner、Juanita Bawagan、Jane Park、Arielle Bier 和 Molly Beck 对博客文章的反馈以及对此次发布的帮助; 感谢 William Hood、Irina Andronic、Victoria Johnston、Lucas Dixon、Adam Connors 和 Jimbo Wilson 对插图和图表的帮助

页脚链接

关注我们

关于

了解更多

注册以获取有关我们最新创新的更新

电子邮件地址 请输入有效的电子邮件(例如,“name@example.com”) 我接受 Google 的条款和条件,并承认我的信息将按照 Google 的隐私政策 使用。 注册