AI在线 AI在线

推理性能提升10倍!蚂蚁集团开源业内首个高性能扩散语言模型推理框架dInfer

10月13日,蚂蚁集团正式开源业界首个高性能扩散语言模型推理框架dInfer。 在基准测试中,dInfer将扩散语言模型的推理速度相比于英伟达扩散模型框架Fast-dLLM提升了10.7倍;在代码生成任务HumanEval上,dInfer在单批次推理中创造了1011Tokens/秒的速度,首次在开源社区中实现扩散语言模型的单批次推理速度显著超越自回归模型。 dInfer的工作表明,扩散语言模型具备显著的效率潜力,可以通过系统性的创新工程兑现,为通往AGI的架构路径提供极具竞争力的选项。

10月13日,蚂蚁集团正式开源业界首个高性能扩散语言模型推理框架dInfer。

在基准测试中,dInfer将扩散语言模型的推理速度相比于英伟达扩散模型框架Fast-dLLM提升了10.7倍;在代码生成任务HumanEval上,dInfer在单批次推理中创造了1011Tokens/秒的速度,首次在开源社区中实现扩散语言模型的单批次推理速度显著超越自回归模型。dInfer的工作表明,扩散语言模型具备显著的效率潜力,可以通过系统性的创新工程兑现,为通往AGI的架构路径提供极具竞争力的选项。

扩散语言模型,作为一种全新的范式将文本生成视为一个“从随机噪声中逐步恢复完整序列”的去噪过程,具有高度并行、全局视野、结构灵活三大优势。凭借这些优势,以蚂蚁集团和人大发布的LLaDA-MoE为代表的模型已在多个基准测试中,展现出与顶尖AR模型相媲美的准确性 。然而在推理效率方面,dLLM理论上的强大潜能,却长期被残酷的现实“枷锁”所束缚。dLLM的高效推理面临计算成本高、KV缓存失效、并行解码三大挑战。这些瓶颈使得扩散语言模型的推理速度一直不尽人意,如何打破枷锁释放扩散语言模型在推理效率上的潜能,成为整个领域亟待解决的难题。

dInfer是一款专为扩散语言模型设计的、算法与系统深度协同的高性能推理框架 ,可支持多种扩散语言模型,包括 LLaDA、 LLaDA-MoE、LLaDA-MoE-TD 等。

dInfer包含四大核心模块:模型接入(Model)、KV缓存管理器(KV-Cache Manager),扩散迭代管理器(Iteration Manager),和解码策略(Decoder)。这种可插拔的架构,允许开发者像搭乐高一样,进一步组合和探索不同模块的优化策略,并在统一的平台上进行标准化评测 。更重要的是,dInfer针对上述三大挑战,在每个模块中都集成了针对性的解决方案。

推理性能提升10倍!蚂蚁集团开源业内首个高性能扩散语言模型推理框架dInfer

(图说:dInfer的架构)

在配备8块NVIDIA H800 GPU的节点上,dInfer的性能表现令人瞩目:

在与先前的dLLM推理方案Fast-dLLM的对比中,dInfer在模型效果持平的情况下,平均推理速度(avg TPS)实现了10.7倍的巨大提升(681 vs 63.6) ;在代码生成任务HumanEval上,dInfer在单批次推理中创造了1011 tokens/秒的速度 ;与在业界顶尖的推理服务框架vLLM上运行的、参数量和性能相当的AR模型Qwen2.5-3B相比,dInfer的平均推理速度是其2.5倍(681 vs 277) 。

蚂蚁集团介绍,dInfer连接了前沿研究与产业落地,标志着扩散语言模型从“理论可行”迈向“实践高效”的关键一步。此次开预案,也是诚邀全球的开发者与研究者共同探索扩散语言模型的巨大潜能,构建更加高效、开放的AI新生态。

相关资讯

蚂蚁入局具身智能赛道:百万年薪招兵买马,自研团队首曝光

蚂蚁集团旗下上海蚂蚁灵波科技有限公司近日启动大规模招聘,首次披露其具身智能人形机器人研发计划。 这家成立于2024年底、注册资本1亿元的科技公司,正通过猎聘网集中招募四大核心岗位团队,工作地点包括上海和杭州。 招聘信息显示,开放岗位包括人形机器人系统和应用软件工程师、人形机器人硬件结构工程师、人形机器人运动控制软件工程师、人形机器人整机/硬件产品专家,薪资范围在35-80k·16薪。
2/19/2025 3:01:00 PM
AI在线

蚂蚁集团推出两款 MoE 大模型,用国产芯片训练成本显著降低

据证券时报报道,近日,蚂蚁集团 Ling 团队在预印版 Arxiv 平台发表技术成果论文《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》,宣布推出两款不同规模的 MoE (混合专家)大语言模型 —— 百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),并提出一系列创新方法,实现在低性能硬件上高效训练大模型,显著降低成本。
3/24/2025 3:04:26 PM
远洋

蚂蚁集团回应新模型训练成本降低:基于不同芯片持续调优,会逐步开源

据新浪科技报道,针对有关蚂蚁“百灵”大模型训练成本有关消息,蚂蚁集团回应称,公司针对不同芯片持续调优,以降低AI应用成本,目前已经取得一定进展,也将逐步通过开源分享。
3/24/2025 4:08:17 PM
清源
  • 1