AI在线 AI在线

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

现在,开源 RL 训练方法只需要用 1/30 的训练步骤就能赶上相同尺寸的 DeepSeek-R1-Zero 蒸馏 Qwen。

DeepSeek 啥都开源了,就是没有开源训练代码和数据。

现在,开源 RL 训练方法只需要用 1/30 的训练步骤就能赶上相同尺寸的 DeepSeek-R1-Zero 蒸馏 Qwen

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

国内大模型六小强之一的阶跃星辰联与清华联合发布 Open Reasoner Zero(ORZ),由 AI 大拿沈向洋、阶跃星辰创始人 / CEO 姜大昕、ResNet 作者张祥雨等一众大佬亲自署名。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

在响应长度上,用约 17% 的训练步骤就能赶上 DeepSeek-R1-Zero 671B。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

值得关注的是,团队还发现了一个重要的转折点 ——

在训练步骤约 680 步时,模型的训练奖励值、反思能力和回答长度同时出现显著提升,疑似出现了 DeepSeek-R1-Zero 论文中类似的“顿悟时刻”(aha moment)。

目前,研究训练数据、训练代码、论文、模型全都 100%开源,开源许可证用的也是宽松的 MIT Lisence。

开源 48 小时,就已速揽 700 + 星星。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

以下是更多细节。

复杂的奖励函数不必要?!

通过广泛的实验,团队证明了一种极简主义的方法,带有 GAE 的原版 PPO 就可以有效地扩展 RL 训练(关键的参数设置是 GAE λ= 1,折扣因子 γ=1)。

再加上基于规则的奖励函数,足以在推理任务上同时扩大响应长度和基准性能,类似于 DeepSeek-R1-Zero 中观察到的现象。

这一结果表明复杂的奖励函数是不必要的。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

另外,团队在不依赖任何基于 KL 的正则化技术的情况下实现了稳定的训练,这与 RLHF 和推理模型领域目前的认知不同,这也为进一步扩大强化学习规模提供了希望。

同时扩大数据数量和多样性对于 Open Reasoner Zero 的训练至关重要。虽然在像 MATH 这样有限的学术数据集上训练会导致性能快速达到平台期,但精心策划的大规模多样化数据集能够实现持续扩展,在训练集和测试集上都没有饱和的迹象。

在以 Qwen2.5-Base-7B 为基础模型的实验中,所有基准测试在某个时间点都会经历奖励和响应长度的突然增加,这种现象类似于涌现行为。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

在整个训练过程中,Average Correct Reflection Length 始终高于 Average Response Length。一个特别值得注意的现象出现在第 680 步附近,可以观察到三个指标同时加速。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

最终,Open-Reasoner-Zero 模型在 MMLU 和 MMLU_PRO 基准测试中,无需任何额外的指令调整即可超越 Qwen2.5 Instruct。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

One More Thing

昨天,在阶跃星辰生态开放日上,阶跃星辰创始人兼 CEO 姜大昕就有简单提及这项研究。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

只提了一嘴,是因为研究还未完全完成(Working in Progress),随时可能有新进展,感兴趣的盆友可以关注一哈。

1/30 训练步骤复刻 DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型 RL 训练方法

项目地址:

  • https://github.com/Open-Reasoner-Zero/Open-Reasoner-Zero/

本文来自微信公众号:量子位(ID:QbitAI),作者:梦晨西风

相关资讯

网易有道全面拥抱DeepSeek-R1,加速AI教育应用商业化落地

1月20日,DeepSeek震撼发布DeepSeek-R1,这款推理大模型在数学、编程及逻辑推理等多个领域展现出了与OpenAI顶尖模型比肩的实力,同时实现了API调用成本90%-95%的大幅缩减,无疑为科技界投下了一颗开年“重磅炸弹”。 DeepSeek-R1的深度推理能力不仅为AI产业的多元化发展开辟了新航道,也为包括教育在内的多个行业带来了革新动力。 作为教育科技企业,网易有道坚持深入挖掘教育场景下的大模型应用价值。
2/7/2025 6:31:00 PM
朱可轩

应对DeepSeek挑战,OpenAI增加o3-mini公开推理过程

OpenAI近日宣布展示其最新推理模型o3-mini的详细推理过程,此举被视为对竞争对手DeepSeek-R1日益增长压力的回应。 这一改变标志着OpenAI在模型透明度策略上的重要转变。 此前,OpenAI一直将"思维链"(Chain of Thought, CoT)视为核心竞争优势而选择隐藏。
2/8/2025 9:38:00 AM
AI在线

百度再出重磅消息!新推理模型与文心5.0大模型即将来袭!

近日,《华尔街日报》爆料,百度计划在2025年8月底之前推出一款全新的推理模型,旨在应对日益激烈的市场竞争,尤其是与 DeepSeek 和 Open 等科技巨头的竞争。 这款新模型将具备更强的能力,能够处理更加复杂的任务,为用户提供更高效的服务。 此外,百度还将于未来几个月内发布其核心大模型 “文心” 的最新版本 —— 文心5.0。
8/8/2025 3:12:23 PM
AI在线
  • 1