AI在线 AI在线

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

a-m-team 又发新论文了。 这个团队上周刚刚在 Hugging Face 低调开源了32B稠密模型,但在多项关键推理评测中击败了 DeepSeek-R1,并与超大规模的 MoE 模型Qwen3-235B-A22B、Seed1.5-Thinking 不相上下,因此赢得了海内外的不少关注。 今天,a-m-team 发布了一篇名为“Not All Correct Answers Are Equal: Why Your Distillation Source Matters”的论文,介绍了 R1 之后下一代推理模型的小进展。

a-m-team 又发新论文了。

这个团队上周刚刚在 Hugging Face 低调开源了32B稠密模型,但在多项关键推理评测中击败了 DeepSeek-R1,并与超大规模的 MoE 模型Qwen3-235B-A22B、Seed1.5-Thinking 不相上下,因此赢得了海内外的不少关注。

今天,a-m-team 发布了一篇名为“Not All Correct Answers Are Equal: Why Your Distillation Source Matters”的论文,介绍了 R1 之后下一代推理模型的小进展。

在这篇论文中,研究团队发现基于 AM-Thinking-v1 的问答数据“纯蒸馏”(即只用SFT)训练出的“学生模型”,竟然在多个高难推理任务上接近甚至达到当前最优水平(SOTA),不仅超过了Qwen3-32B,甚至接近了 Qwen3-235B 这样大一个数量级的模型表现。

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

论文链接:https://arxiv.org/pdf/2505.14464

在大模型能力竞赛持续推进的今天,如何以更低的训练成本获得更强的推理能力,成为开源社区面临的核心挑战之一。

相比于 SFT+RL 的训练方式,只用 SFT 意味着着数十倍的成本缩减——也就是说,没有强化学习能力的企业级玩家将 AM-Thinking-v1 蒸馏版拿去直接 SFT 后落地,能够大幅提升应用效率、降低落地成本。

这意味着开源社区未来能以更低的训练成本,获得更强的推理能力。而这项工作成立的前提条件是,需要能有良好的数据源。

换言之,假如数据源能驱动蒸馏模型的成长,那么蒸馏也将不只是一个简简单单的智能“压缩”动作,而是会有潜力成为在开源社区生态中螺旋生长的系统性工程。

什么样的数据源更有效?

蒸馏(Distillation)作为一种低成本、高效率的训练方式,已被广泛用于模型压缩与能力迁移。一般情况下,基于GRPO 或者 PPO 的 RL 训练,但一个被长期忽视的问题是:你的蒸馏源选对了吗?

a-m-team 近期开源了一套基于 AM-Thinking-v1 和 Qwen3-235B-A22B 两个顶尖大模型生成的推理蒸馏数据集。通过对 189 万条高质量推理任务的并行蒸馏对比分析发现:

基于 AM-Thinking-v1 蒸馏训练出的学生模型在多个高难推理任务上接近甚至达到当前最优水平(SOTA);

这份开源数据集为低成本构建强推理能力模型提供了扎实支撑;

用同样的学生模型、训练配置、benchmark 套件对比训练结果;

开源其中两份(AM-Thinking-v1 和 Qwen3-235B-A22B)的数据以供社区验证。

正如本篇论文一语双关的主标题,“Not All Correct Answers Are Equal”——不同的模型,如果生成相似正确的答案,但并不代表他们都有相同的价值。因为基于这个正确答案背后的数据源质量、结构存在差异,自然对后续训练的贡献可能存在显著差异。

a-m-team研究以自家最新发布的AM-Thinking-v1为例,根据其团队研究,以AM-Thinking-v1为教师模型培训出来的纯蒸馏模型,相比于Qwen3-235B-A22和DeepSeek-R1的蒸馏模型在性能上有着显著的领先优势。

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

不仅如此,AM蒸馏过程中的损失曲线也是最低的,这点其实从图一的评分排列中也可见一斑。如下图所示,AM长期保持了远低于其他模型的基准损耗。

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

损耗低的背后是 AM 团队本身提供了更适合学习的高质量的数据。

a-m-team 团队对从三个不同的大规模模型 AM-Thinking-v1、Qwen3-235B-A22B和 DeepSeek-R1的训练数据进行了详细分析后,认为这种分数差异来或许自于他们在数据结构上的优势。

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

首先,AM的token 长度分布更加多样。

如下图专门展示了数学实例的词元跨度分布情况。结果表明,AM-Thinking-v1 的数学数据呈现出高度分散的分布状态,呈现了更多的短序列。

这意味着,AM的响应跨度广——它既能生成简洁的1024 token以内回复,也能输出超过 10240 token 的复杂推理链,这种“长短结合”的分布为模型的自适应能力提供了数据支撑。

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

其次,AM 模型数据源的困惑度更低,数据质量更高。

研究称,AM 的平均Perplexity(PPL)数值为2.5,低于Qwen3.0和DeepSeek R1 2.9,表明 AM 的数据在语言流畅性、连贯性等方面更优,这或许代表其适合用于训练结构化 reasoning 过程。

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

而由于更好的数据结构,除了跑分领先外,生成行为也更符合“人类推理模式”。

研究者声称,在较难的任务中(如下图AIME2024\2025),AM 蒸馏模型会自动生成更长 reasoning 过程,而在较简单任务(如下图中 MATH500)中则保持简明。

这意味着模型保持了一个较好的长调度能力。

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

从不服跑个分,到不服蒸个馏?

a-m-team宣布开源了它的蒸馏数据,主要包括AM-Thinking-v1 Distilled Dataset和Qwen3-235B-A22B Distilled Dataset。其中每条数据都包含:

标准化 prompt;

符合验证标准的  +  格式推理链;

精准分任务分类(数学、代码、科学、指令、多轮对话等);

验证分数(均高于 0.9)及自动评分信息。

研究者希望,这份数据集不仅能助力社区低成本达成强推理能力,更能够为后续 RLHF、CoT 微调、可控生成等高级能力构建提供基础。同时,AM团队也正在试水更广泛的模型改进和应用场景。

正如AM团队在一篇分析文章中指出,“蒸馏数据的选择不再是技术细节,而是决定性能上限的关键因素。”优质的蒸馏数据源未来或许将直接影响训练效率和性能上限。

而对于模型观察者来说,AM团队在本次论文中旗帜鲜明地提出了“Not All Correct Answers Are Equal”,其实也是对现阶段模型的一种全新反思框架:

尤其在评分差异与用户感知逐渐脱节,许多从业者对评分审美疲劳的今天,什么样的开源大模型才更可以被称作领先的?蒸馏背后体现的数据结构或许会是一个全新的视角。

近日,大家都在感叹:DeepSeek 的 R1 之后,大模型已经很久没有新的技术突破了。但实际证明,默默在认真研究技术的团队还在不断创新和取得贡献。

相关资讯

沙利文发布权威报告:商汤科技GenAI技术栈市场综合能力位居国内第一

创新实力强、应用落地广,GenAI(生成式AI)技术栈领域,商汤科技位居国内榜首! 近日,权威研究机构弗若斯特沙利文(Frost & Sullivan, 简称“沙利文”)联合头豹研究院发布《2024年中国GenAI技术栈市场报告》,商汤科技在11个GenAI厂商中超越阿里云、百度智能云和华为云,增长指数和创新指数均排名国内第一,在全球排名中仅次于亚马逊云科技。 报告认为,商汤积极投入技术创新,致力于为用户提供行业领先的自研模型与高性能国产化的推理引擎,同时建立了包含机器与人工审核、安全评测与内容安全策略迭代升级等在内的完整性安全管理方案,是GenAI技术栈领域的领导者。
12/30/2024 4:09:00 PM
新闻助手

全球首个亿级参数量地震波大模型今年对外开放

全球首个亿级参数量地震波大模型“谛听”在国家超级计算机成都中心发布第三阶段测试版本,该大模型 2025 年将开放微调、推理框架和配套的数据处理流程,用户可在超算平台直接使用“谛听”用于业务分析和科学研究。
1/19/2025 1:46:30 PM
归泷(实习)

豆包推出实时语音大模型:号称中文对话断崖式领先、情商智商均在线

据介绍,豆包实时语音大模型实现了语音理解和生成一体化,实现了端到端语音对话。相比传统级联模式,在语音表现力、控制力、情绪承接方面表现惊艳,并具备低时延、对话中可随时打断等特性。
1/20/2025 4:29:51 PM
清源
  • 1