AI在线 AI在线

重磅!谷歌DeepMind发布AlphaEvolve:AI界的“算法设计进化大师”诞生

谷歌DeepMind刚刚又往前拱了一大步,宣布推出 AlphaEvolve智能体 ,目标直指更上游,用于通用算法的设计发现和优化简单说,AlphaEvolve就像个AI界的“算法育种大师”。 它把自家Gemini大模型(Gemini Flash负责广撒网,洞察力强的Gemini Pro负责深挖)和一套“自动化考官”(负责验证算法靠不靠谱、效率高不高)结合起来,再套上一个“进化论”的框架,让好算法能一代更比一代强AlphaEvolve工作流程:工程师设定框架,AI通过“提示采样器”给LLM喂招,LLM出新招(程序),“考官”打分,好招进“兵器谱”,并用来启发下一轮出招。 去年DeepMind就秀过肌肉,证明LLM能生成代码函数来搞定科学问题。

谷歌DeepMind刚刚又往前拱了一大步,宣布推出 AlphaEvolve智能体 ,目标直指更上游,用于通用算法的设计发现和优化

简单说,AlphaEvolve就像个AI界的“算法育种大师”。它把自家Gemini大模型(Gemini Flash负责广撒网,洞察力强的Gemini Pro负责深挖)和一套“自动化考官”(负责验证算法靠不靠谱、效率高不高)结合起来,再套上一个“进化论”的框架,让好算法能一代更比一代强

图片

AlphaEvolve工作流程:工程师设定框架,AI通过“提示采样器”给LLM喂招,LLM出新招(程序),“考官”打分,好招进“兵器谱”,并用来启发下一轮出招。

去年DeepMind就秀过肌肉,证明LLM能生成代码函数来搞定科学问题。但AlphaEvolve的野心是进化一整个代码体系,去啃那些更复杂的算法硬骨头

AlphaEvolve已经在谷歌内部“上岗”了

AlphaEvolve已经在谷歌的多个核心业务里默默发光发热了:

图片

1.改善数据中心调度:

AlphaEvolve给谷歌庞大的数据中心Borg系统发现了一种简单却极其有效的启发式方法。这套方案上线一年多,平均给谷歌全球计算资源抠回了0.7%的算力

2.设计芯片 (TPU Circuit Design):

在谷歌的AI芯片TPU设计中,AlphaEvolve直接上手改起了Verilog(芯片设计语言)。它优化了一个矩阵乘法关键电路,去掉了冗余。改动通过了严格的“体检”,确认功能没问题,已经被用在了下一代TPU里

3.给AI训练和推理再提提速:

AlphaEvolve找到了更巧妙的方法来拆解大矩阵乘法,让Gemini架构里的这个核心“零部件”快了23%,最终给Gemini模型的训练省了1%的时间。对大模型训练这种“吞金兽”来说,1%也是肉。工程师们也从几周的苦哈哈优化,变成了几天的自动化实验,能更快搞创新了

它甚至还能优化底层的GPU指令。对于Transformer模型里常用的FlashAttention,AlphaEvolve给整出了最高32.5%的加速。这块通常是编译器啃的硬骨头,人一般不轻易动

不止搞工程,数学前沿它也敢闯

AlphaEvolve的目标不只是优化现有系统,它还想在更基础的数学和算法发现上取得突破:

图片

矩阵乘法新算法:

给定一个基础代码框架,AlphaEvolve设计出了一种新颖的基于梯度的优化过程,发现了多个矩阵乘法新算法。例如,它找到了一个用48次标量乘法计算4x4复数矩阵乘积的算法,优于自1969年以来已知的Strassen算法。这比DeepMind之前的AlphaTensor(专攻矩阵乘法,但对4x4矩阵只在二元算术上找到改进)又进了一步

攻克公开数学难题:

DeepMind用AlphaEvolve尝试了超过50个来自数学分析、几何、组合学和数论的公开问题,在约 75% 的案例中,它重新发现了当前已知的最优解。在约20%的案例中,它改进了已知的最优解!

例如,在困扰了数学家300多年的“接吻数问题”(Kissing Number Problem,即一个中心球最多能同时接触多少个不重叠的等大球体)上,AlphaEvolve在11维空间中发现了一个包含593个外层球的构型,刷新了该维度下的已知下界

对数学成果感兴趣的,DeepMind也放了些结果在Google Colab上,地址:

https://colab.research.google.com/github/google-deepmind/alphaevolve_results/blob/master/mathematical_results.ipynb

写在最后

大语言模型的编码能力还在进化,AlphaEvolve也会跟着变强。谷歌目前推出了早期试用计划,先给学术圈的朋友们尝尝鲜,想尝鲜的可以去DeepMind官网填个表

https://docs.google.com/forms/d/e/1FAIpQLSfaLUgKtUOJWdQtyLNAYb3KAkABAlKDmZoIqPbHtwmy3YXlCg/viewform

图片

想深挖的,paper地址:

https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/AlphaEvolve.pdf

相关资讯

不蒸馏R1也能超越DeepSeek,上海 AI Lab 用RL突破数学推理极限

仅通过强化学习,就能超越DeepSeek! 上海AI Lab提出了基于结果奖励的强化学习新范式——从Qwen2.5-32B-Base模型出发,仅通过微调和基于结果反馈的强化学习,在不蒸馏超大模型如DeepSeek-R1的情况下,就能超越DeepSeek-R1-Distill-Qwen32B和OpenAI-O1系列的超强数学推理性能。 团队发现,当前大模型数学推理任务面临”三重门”困局:稀疏奖励困境:最终答案对错的二元反馈,使复杂推理的优化变得困难局部正确陷阱:长思维链中部分正确步骤反而可能误导模型学习规模依赖魔咒:传统蒸馏方法迫使研究者陷入”参数规模军备竞赛”因此,研究团队重新审视了当前基于结果奖励的强化学习算法,经过严格的理论推导与证明,重新设计了一个新的结果奖励强化学习算法,并在这个过程中得出了三点重要结论:对于正样本:在二元反馈环境下,通过最佳轨迹采样(BoN)的行为克隆即可学习最优策略对于负样本:需要使用奖励重塑来维护策略优化目标的一致性对于长序列:不同的序列部分对结果的贡献不同,因此需要更细粒度的奖励分配函数,这个函数可以通过结果奖励习得通俗来说,就是通过对正确样本模仿学习,错误样本偏好学习,关键步骤重点学习,无需依赖超大规模的模型(例如DeepSeek-R1)进行蒸馏,仅通过强化学习即可达到惊人的效果。
2/17/2025 9:33:00 AM
量子位

免手术AI读心术新突破!Meta脑机接口研究惊呆网友:能边睡边玩手机发帖了??

新年伊始,Meta脑机接口研究传来新进展——语言模型加持下,无需动脑部手术,脑机接口实现了当前非侵入式方式(MEG)最准确的结果。 简单来说,仅利用AI模型Brain2Qwerty,他们实现了对脑电图(EEG)或脑磁图(MEG)电信号的高度解析。 具体效果如何呢?
2/17/2025 10:08:00 AM
量子位

老友记搬沙发难题终结,60年数学谜题破解!119页论文惊人证明:有最优解

臭名昭著的「搬沙发」难题,已经困扰了数学家们60年。 《老友记》经典的一幕,就是Ross找人帮忙搬新沙发时,无论如何也无法使沙发顺利通过拐角。 Ross大喊「Pivot!
2/18/2025 9:20:00 AM
新智元
  • 1