AI在线 AI在线

a-m-team

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

a-m-team 又发新论文了。 这个团队上周刚刚在 Hugging Face 低调开源了32B稠密模型,但在多项关键推理评测中击败了 DeepSeek-R1,并与超大规模的 MoE 模型Qwen3-235B-A22B、Seed1.5-Thinking 不相上下,因此赢得了海内外的不少关注。 今天,a-m-team 发布了一篇名为“Not All Correct Answers Are Equal: Why Your Distillation Source Matters”的论文,介绍了 R1 之后下一代推理模型的小进展。
5/22/2025 10:21:00 AM
郭海惟

三思而后行,让大模型推理更强的秘密是「THINK TWICE」?

近年来,大语言模型(LLM)的性能提升逐渐从训练时规模扩展转向推理阶段的优化,这一趋势催生了「测试时扩展(test-time scaling)」的研究热潮。 OpenAI 的 o1 系列与 DeepSeek 的 R1 模型已展示出显著的推理能力提升。 然而,在实现高性能的同时,复杂的训练策略、冗长的提示工程和对外部评分系统的依赖仍是现实挑战。
4/5/2025 5:10:00 PM
机器之心
  • 1