AI在线 AI在线

sft 大模型

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

a-m-team 又发新论文了。 这个团队上周刚刚在 Hugging Face 低调开源了32B稠密模型,但在多项关键推理评测中击败了 DeepSeek-R1,并与超大规模的 MoE 模型Qwen3-235B-A22B、Seed1.5-Thinking 不相上下,因此赢得了海内外的不少关注。 今天,a-m-team 发布了一篇名为“Not All Correct Answers Are Equal: Why Your Distillation Source Matters”的论文,介绍了 R1 之后下一代推理模型的小进展。
5/22/2025 10:21:00 AM
郭海惟
  • 1