AI在线 AI在线

全球最强开源「定理证明器」出世!十位华人核心,8B暴击671B DeepSeek

全球最强的开源「定理证明器」诞生了! 来自普林斯顿、清华、英伟达、斯坦福等八大顶尖机构联手,祭出了第二版Goedel-Prover-V2模型。 项目地址: 2025顶会录用,曾在miniF2F Pass@32刷新SOTA,位列PutnamBench榜首。

全球最强的开源「定理证明器」诞生了!

来自普林斯顿、清华、英伟达、斯坦福等八大顶尖机构联手,祭出了第二版Goedel-Prover-V2模型。

图片

项目地址:https://blog.goedel-prover.com/

初代Goedel-Prover已被COLM 2025顶会录用,曾在miniF2F Pass@32刷新SOTA,位列PutnamBench榜首。

这一次,新版模型一共有两个参数版本:32B和8B。

历经数月迭代,Goedel-Prover-V2再次在PutnamBench上夺冠,用更少的算力,解决了64道数学难题。

而且,在IMO级别的基准——MathOlympiadBench,新模型刷爆SOTA,一举攻克了73个问题。

相比之下,DeepSeek-Prover-671B仅解决了50个问题。

另外,在汇集三大国际奥数竞赛难题的MiniF2F基准上,32B在Pass@32上拿下90.4%成绩,击败了DeepSeek-Prover-V2-671B(82.4%),8B模型与之实力相当。

图片

它的出世,标志着AI又在在自动形式化证明生成领域实现了全新技术突破。

对此,有网友期待地表示,「当前,IMO 2025正在激烈比拼中,不知接下来Goedel-Prover-V2的实战表现如何」?

图片

8B模型一举击败671B DeepSeek Prover

目前,研究团队暂未放出arXiv论文。

不过,在项目主页和Hugging Face,对最新Goedel-Prover-V2模型背后技术和性能基准,展开了详实的介绍。

图片图片

那么,小参数的模型是如何超越了671B?

这里,Goedel-Prover-V2以Qwen3‑8B 和Qwen3‑32B 作为基座模型,采用了标准的「专家迭代与强化学习」框架。

具体来说,研究团队在一个完整流程中——形式化问题、生成并验证证明,再利用新发现的正确证明训练下一代模型,并通过RL进一步提升性能。

接下来,他们还融入了三大创新技术:

1. 分层式数据合成(Scaffolded data synthesis)

生成难度逐步递增的合成证明任务,对模型进行渐进式训练,使其能够掌握愈发复杂的定理;

自动生成介于已解决简单问题与未解复杂问题之间的中级难度题目,形成更平滑的难度递进,为训练提供更密集、信息量更高的信号。

2. 验证器引导的自我修正(Verifier-guided self-correction)

训练模型有效利用 Lean 编译反馈,反复修订自身证明,高度模拟人类完善证明的过程,并将这一任务融入监督微调与强化学习阶段。

3. 模型平均(Model averaging)

为防止后期训练导致多样性丧失,将已训练的检查点与基座模型进行平均。

这一简洁技术能够恢复多样性,并在更大的 K 值下显著提升 Pass@K 表现。

简言之,融合多个模型检查点,提升鲁棒性与整体性能。

图片

极少算力刷爆SOTA,Scaling超强

Goedel-Prover-V2首先会生成一个初始候选证明,再借助 Lean 编译器的反馈进行迭代修正,以提高证明质量。

研究中,模型进行了两轮自我修正,但计算开销依然可控——总输出长度(包含初始证明及两次修正)仅从标准的 32K  token适度增加到40K  token。

如下表所示,展示了Goedel-Prover-V2在Pass@32下的所有结果。

首先,在全部三个数据集中,旗舰32B 模型均显著超越此前SOTA模型,即DeepSeek‑Prover‑V2‑671B与Kimina‑Prover‑72B。

其次,在miniF2F数据集上,8B模型在性能上与DeepSeek‑Prover‑V2‑671B相当,但模型规模仅为其 1/100。

图片

如下成绩是,Goedel-Prover-V2在PutnamBench基准上,用更少的算力,击败所有SOTA位居榜首。

图片

下面的Scaling曲线表明,在整个推理计算范围内,Goedel-Prover-V2-32B始终优于所有的顶尖模型。

也就意味着,新模型具备了出色的Scaling能力。

图片

论文核心贡献者之一Chi Jin称,Goedel-Prover只用了高校实验室里的GPU,就实现了超强性能。

图片

十位核心作者,清北上交在列

Yong Lin

图片

Yong Lin是普林斯顿大学语言与智能(PLI)的博士后研究员,导师是Chi Jin、Sanjeev Arora和Danqi Chen。

此前,他在香港科技大学获得博士学位,师从张潼教授;在浙江大学获得学士和硕士学位,专业排名1/207。

在攻读博士学位之前,他于2017年至2021年在阿里担任高级机器学习工程师。

他的研究聚焦于机器学习和LLM的后训练技术。主要研究方向包括:

  • 形式化数学推理:让大语言模型能够使用可验证的语言(即形式化语言,如 LEAN)进行推理。
  • LLM后训练:提升模型的有益性、无害性与诚实性等特质。

Shange Tang

图片

Shange Tang是普林斯顿大学运筹学与金融工程系的博士生,导师是Jianqing Fan教授与金驰教授。

此前,他在北京大学数学科学学院获得学士学位。

他的研究兴趣为统计学和机器学习的理论与应用。

Bohan Lyu

图片

Bohan Lyu目前在普林斯顿大学PLI,从事基于大语言模型与形式化语言的自动化数学定理证明研究,师从金驰教授。

此前,他在清华大学获得学士学位。并曾在清华大学NLP实验室(导师是刘知远教授)和加州大学圣地亚哥分校Rose-STL-Lab(导师是虞琦教授)进行科研实习。

他的研究兴趣为机器学习(ML)和自然语言处理(NLP)。

Ziran Yang(杨子然)

图片

杨子然是普林斯顿大学电子与计算机工程系的博士生,师从金驰教授。

此前,他在北京大学元培学院获得学士学位,到时是朱毅鑫教授、朱松纯教授。

Jui-Hui Chung(钟瑞辉)

图片

钟瑞辉是普林斯顿大学应用与计算数学项目的博士生,师从Jacob Shapiro教授。

他本科及硕士毕业于台湾大学物理系,师从Ying-Jer Kao教授,期间主要从事计算物理研究。

他的研究方向是拓扑绝缘体的数学物理特性。近期在Chi Jin教授指导下,开展基于LLM的自动定理证明研究。

Haoyu Zhao

图片

Haoyu Zhao是普林斯顿大学的博士生,师从Sanjeev Arora教授。

此前,他在清华大学计算机科学实验班(姚班)获得学士学位,导师是陈卫教授。

他的研究兴趣横跨数学、算法与学习的交叉领域。

Lai Jiang

图片

上海交通大学。

Yihan Geng

图片

北京大学。

Hongzhou Lin

图片

Hongzhou Lin是亚马逊应用研究科学家,隶属于AGI基础团队。

此前,他在法国INRIA格勒诺布尔中心获得了博士学位,师从Zaid Harchaoui和Julien Mairal教授。期间,他首创了一阶优化算法的通用加速框架,为后续应用科学研究奠定了重要理论基础。

随后在MIT的Stefanie Jegelka教授指导下完成机器学习方向的博士后研究。

目前,他主要从事LLM开发工作,专注于数学推理与问题解决能力的研究,涵盖非形式化与形式化(如LEAN)两大方向。

Chi Jin(金驰)

图片

金驰是普林斯顿大学电气与计算机工程学系助理教授,计算机科学系联合聘任教员。

此前,他在加州大学伯克利分校获得计算机科学博士学位,在北京大学获得物理学学士学位。

他的研究方向包括,大模型推理与智能体、博弈论与多智能体学习、强化学习、统计学习理论、优化方法。

相关资讯

微软等开源AIOpsLab,可构建自主云AI Agent

微软、加州大学伯克利分校、伊利诺伊大学等研究人员联合开源了,一个专用于云自动化运维的AI Agents——AIOpsLab。 AIOpsLab能模拟真实云服务环境中的复杂操作任务,实现故障的自动化检测、定位和解决问题。 还具备高度的可观测性,能够收集和分析关键的遥测数据,确保对系统状态和应用环境的深入洞察。
1/27/2025 9:51:24 AM
AIGC开放社区

DeepSeek开源Janus-Pro-7B:多模态AI模型性能超越DALL-E 3 和 Stable Diffusion 3!

中国人工智能公司 DeepSeek 的 R1“推理”人工智能已经引起了广泛关注,位居应用商店排行榜首位并改变了股市。 随后DeepSeek又宣布开源新一代多模态模型Janus-Pro-7B,该模型在图像生成、视觉问答等任务中全面超越 OpenAI 的 DALL-E 3 和 Stable Diffusion 3,并以“理解-生成双路径”架构和极简部署方案引发AI社区轰动。 性能表现:小模型吊打行业巨头Janus-Pro-7B虽仅有70亿参数(约为GPT-4的1/25),却在关键测试中碾压对手:文生图质量:在GenEval测试中以80%准确率击败DALL-E 3(67%)和Stable Diffusion 3(74%)复杂指令理解:在DPG-Bench测试中达84.19%准确率,能精准生成如“山脚下有蓝色湖泊的雪山”等复杂场景多模态问答:视觉问答准确率超越GPT-4V,MMBench测试得分79.2分接近专业分析模型技术突破:像“双面神”分工协作传统模型让同一套视觉编码器既理解图片又生成图片,如同让厨师同时设计菜单和炒菜。
2/7/2025 11:00:00 AM
AIGC Studio

李飞飞、DeepSeek为何偏爱这个国产模型?

斯坦福李飞飞团队的一篇论文,近来在AI圈子掀起了一场飓风。 他们仅用1000个样本,在16块H100上监督微调26分钟,训出的新模型s1-32B,竟取得了和OpenAI o1、DeepSeek R1等尖端推理模型相当的数学和编码能力! 团队也再次证明了测试时Scaling的威力。
2/8/2025 9:30:00 AM
新智元

OpenAI突宣开源计划:端侧模型or小模型二选一!奥特曼在线征集投票全球最大开源视频模型,现在也Created in China了,阶跃出品

刚刚,阶跃星辰联合吉利汽车集团,开源了两款多模态大模型! 新模型共2款:全球范围内参数量最大的开源视频生成模型Step-Video-T2V行业内首款产品级开源语音交互大模型Step-Audio多模态卷王开始开源多模态模型,其中Step-Video-T2V采用的还是最为开放宽松的MIT开源协议,可任意编辑和商业应用。 (老规矩,GitHub、抱抱脸、魔搭直通车可见文末)在两款大模型的研发过程中,双方在算力算法、场景训练等领域优势互补,“显著增强了多模态大模型的性能表现”。
2/18/2025 1:30:00 PM
量子位

阿里千问QwQ-32B推理模型开源,比肩671B满血DeepSeek-R1!笔记本就能跑

凌晨,阿里重磅开源全球最顶尖AI模型——通义千问QwQ-32B推理模型。 它仅用320亿参数,便与目前公认的开源最强6710亿参数的满血版DeepSeek-R1(370亿被激活)相媲美。 甚至,QwQ-32B在多项基准测试中全面超越o1-mini。
3/7/2025 8:30:00 AM
新智元

「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

开源微调神器Unsloth带着黑科技又来了:上次更新把GRPO需要的内存见到了7GB,这次只需要5GB的VRAM,就能训练自己的推理模型Qwen2.5(1.5B),比上次要少2GB。 这次彻底把推理模型训练显存打下来了! 这次把GRPO训练推理模型的上下文变长10倍,同时需要的显存少了90%。
3/10/2025 1:11:26 PM
新智元

Manus被破解了?曝出系统提示词和背后大模型,CTO也回复了

最近几天,一个叫「Manus」的通用 AI Agent 产品刷屏网络。 它能完成复杂的文件处理、数据分析、代码编写等多种任务。 刚上线不久,大家纷纷在线求购邀请码,都想亲自上手一试这个突然火起来的智能体。
3/11/2025 8:42:04 AM
机器之心

Manus带火的MCP,让Claude一句话自动化3D建模,网友:真·AI+应用

一句话提示,Claude自动化打开Blender将2D图片转为3D建模。 整个过程行云流水。 而且还能只用一次提示词,再基于这个场景搭建可以互动的网页。
3/17/2025 8:55:00 AM
量子位

全球首个工业界多模态推理模型开源!38B硬刚DeepSeek-R1,训练秘籍全公开

刚刚,昆仑万维正式开源了全球首个工业界多模态推理模型Skywork R1V(以下简称「R1V」)! R1V高效地将DeepSeek-R1这种强大的文本推理能力无缝scaling到了视觉模态,实现了多模态领域的领先表现,并以开源方式推动了技术进步。 由此,多模态推理的新时代即将开启。
3/19/2025 9:20:00 AM
新智元

32B本地部署!阿里开源最新多模态模型:主打视觉语言,数学推理也很强

就在DeepSeek-V3更新的同一夜,阿里通义千问Qwen又双叒叕一次梦幻联动了——发布Qwen2.5-VL-32B-Instruct。 此前开源家族视觉语言模型Qwen2.5-VL包括3B、7B和72B三种尺寸。 这一次的32B版本进一步兼顾尺寸和性能,可在本地运行。
3/25/2025 9:24:05 AM
量子位

美国恐惧:冷战2.0将至,中国开源模型大爆炸临近!LeCun:DeepSeek只是卷王副产品

如今,美国已经开始陷入「冷战2.0焦虑」——我们的AI技术,恐怕已经落后于中国了? 甚至AI社区的不少人已经押注:接下来几个月,将有一大波中国开源AI模型的浪潮! 某AI大V如是说:一年前,没有人会预料到,在AI竞赛中,美国竟会被更强大的中国超越。
3/25/2025 9:08:41 AM
新智元

阿里深夜开源Qwen2.5-VL新版本,视觉推理通杀,32B比72B更聪明

就在 DeepSeek V3「小版本更新」后的几个小时,阿里通义千问团队也开源了新模型。 择日不如撞日,Qwen2.5-VL-32B-Instruct 就这么来了。 相比此前的 Qwen2.5-VL 系列模型,32B 模型有如下改进:回复更符合人类主观偏好:调整了输出风格,使回答更加详细、格式更规范,并更符合人类偏好。
3/25/2025 12:11:08 PM
机器之心

港大开源博士级AI智能体,独立完成三篇算法研究,一站式科研6小时搞定

这三篇论文,出自同一AI之手。 随着人工智能技术的迅猛发展,OpenAI提出的五级模型(涵盖从对话系统到协作管理者)已成为行业发展的重要参考框架。 其中,“自主研究智能体”(Autonomous Research Agent)作为第三至第四阶段的核心技术,正受到全球范围内越来越多的关注。
3/31/2025 7:50:00 AM
量子位

超低成本复现QwQ!数学推理模型训练迎来RL暴击,数据代码模型全开源 | 蚂蚁&清华出品

用上这个开源框架,2天时间就能刷新7B数学推理纪录! 蚂蚁清华联手开源的强化学习框架AReaL-boba,直接把推理模型训练带到了Next Level——训练成本下降的同时,训练速率、推理能力还大幅提升的那种。 除了前面提到的7B模型,在32B模型上,只需两百美元、200条数据,就可以轻松复现QwQ-32B,就是数学推理能力媲美DeepSeek-R1,一战封神的那个。
4/2/2025 9:00:00 AM
量子位

UC伯克利华人开源14B「o3-mini」,代码版R1突袭OpenAI王座!

OpenAI o1/o3-mini级的推理模型,竟被抢先开源了? 刚刚,来自UC伯克利和Together AI的联合团队,重磅推出了一款完全开源的代码推理模型——DeepCoder-14B-Preview。 现在,只需要14B就可以拥有一个媲美o3-mini的本地模型,并且完全免费!
4/10/2025 10:02:43 AM
新智元

Kimi 16B胜GPT-4o!开源视觉推理模型:MoE架构,推理时仅激活2.8B

刚刚,Kimi团队上新了! 开源轻量级视觉语言模型Kimi-VL及其推理版Kimi-VL-Thinking,多模态和推理双双拿捏。 按照Kimi官方的说法,其关键亮点如下:都是基于MoE架构,总参数为16B,但推理时仅激活2.8B;具备强大的多模态推理能力(媲美参数大10倍的模型)和Agent能力;支持128K上下文窗口;采用相对较为宽松的MIT许可证。
4/11/2025 9:10:00 AM
量子位

刚刚,智谱一口气开源6款模型,200 tokens/秒解锁商用速度之最 | 免费

就在刚刚,智谱一口气上线并开源了三大类最新的GLM模型:沉思模型GLM-Z1-Rumination推理模型GLM-Z1-Air基座模型GLM-4-Air-0414若是以模型大小(9B和32B)来划分,更是可以细分为六款。 首先是两个9B大小的模型:GLM-4-9B-0414:主攻对话,序列长度介于32K到128K之间GLM-Z1-9B-0414:主攻推理,序列长度介于32K到128K之间还有四个32B大小的模型,它们分别是:GLM-4-32B-Base-0414:基座模型,序列长度介于32K到128K之间GLM-4-32B-0414:主攻对话,序列长度介于32K到128K之间GLM-Z1-32B-0414:主攻推理,序列长度介于32K到128K之间GLM-Z1-32B-Rumination-0414:主攻推理,序列长度为128K而随着一系列模型的开源,智谱也解锁了一项行业之最——推理模型GLM-Z1-32B-0414做到了性能与DeepSeek-R1等顶尖模型相媲美的同时,实测推理速度可达200 tokens/秒。 如此速度,已然是目前国内商业模型中速度最快,而且它的高性价比版本价格也仅为DeepSeek-R1的1/30。
4/15/2025 12:16:17 PM

DeepSeek-R1「内心世界」首次曝光!AI显微镜破解R1大脑,发现神秘推理机制

推理模型的内心世界是怎么想的? 推理模型与普通LLM之间有没有本质的区别? 一直以来,AI内部的运作机理就像个「黑箱子」。
4/21/2025 8:42:00 AM
新智元
  • 1