AI在线 AI在线

蚂蚁集团推出两款 MoE 大模型,用国产芯片训练成本显著降低

据证券时报报道,近日,蚂蚁集团 Ling 团队在预印版 Arxiv 平台发表技术成果论文《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》,宣布推出两款不同规模的 MoE (混合专家)大语言模型 —— 百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),并提出一系列创新方法,实现在低性能硬件上高效训练大模型,显著降低成本。

据证券时报报道,近日,蚂蚁集团 Ling 团队在预印版 Arxiv 平台发表技术成果论文《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》,宣布推出两款不同规模的 MoE (混合专家)大语言模型 —— 百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),并提出一系列创新方法,实现在低性能硬件上高效训练大模型,显著降低成本。

据AI在线了解,百灵轻量版参数规模为 168 亿(激活参数 27.5 亿),增强版基座模型参数规模高达 2900 亿(激活参数 288 亿),性能均达行业领先水平。实验表明,其 3000 亿参数的 MoE 大模型可在使用国产 GPU 的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及 MoE 模型相当。

当前,MoE 模型训练通常依赖英伟达 H100 / H800 等高性能 GPU,成本高昂且芯片短缺,限制了其在资源受限环境中的应用。蚂蚁集团 Ling 团队提出“不使用高级 GPU”扩展模型的目标,通过创新训练策略,突破资源与预算限制。具体策略包括:架构与训练策略革新,采用动态参数分配与混合精度调度技术;升级训练异常处理机制,自适应容错恢复系统缩短中断响应时间;优化模型评估流程,自动化评测框架压缩验证周期超 50%;突破工具调用能力,基于知识图谱的指令微调提升复杂任务执行精度。

在五种不同硬件配置下,Ling 团队对 9 万亿个 token 进行 Ling-Plus 预训练。结果显示,使用高性能硬件配置训练 1 万亿 token 的预训练成本约 635 万元人民币,而采用蚂蚁优化方法后,低规格硬件训练成本降至 508 万元左右,节省近 20%,且性能与阿里通义 Qwen2.5-72B-Instruct 和 DeepSeek-V2.5-1210-Chat 相当。

此前,DeepSeek 通过算法创新及工程优化,使用英伟达 H800 训练出性能顶尖的 V3 与 R1 模型,为降低成本、提高效率开辟新道路。蚂蚁集团的技术成果若得到验证推广,将助力国产大模型寻找成本更低、效率更高的国产芯片或其他替代方案,进一步降低对英伟达芯片的依赖。

相关资讯

蚂蚁入局具身智能赛道:百万年薪招兵买马,自研团队首曝光

蚂蚁集团旗下上海蚂蚁灵波科技有限公司近日启动大规模招聘,首次披露其具身智能人形机器人研发计划。 这家成立于2024年底、注册资本1亿元的科技公司,正通过猎聘网集中招募四大核心岗位团队,工作地点包括上海和杭州。 招聘信息显示,开放岗位包括人形机器人系统和应用软件工程师、人形机器人硬件结构工程师、人形机器人运动控制软件工程师、人形机器人整机/硬件产品专家,薪资范围在35-80k·16薪。
2/19/2025 3:01:00 PM
AI在线

蚂蚁集团回应新模型训练成本降低:基于不同芯片持续调优,会逐步开源

据新浪科技报道,针对有关蚂蚁“百灵”大模型训练成本有关消息,蚂蚁集团回应称,公司针对不同芯片持续调优,以降低AI应用成本,目前已经取得一定进展,也将逐步通过开源分享。
3/24/2025 4:08:17 PM
清源

报名开启|ICLR 2025新加坡,蚂蚁集团闭门研讨会、交流晚宴等你来!

当春风吹过狮城,ICLR 2025 如约而至,全球技术精英汇聚一堂。 从前沿展示到深度对话,再到思想碰撞的夜晚,蚂蚁集团邀你开启一场科技与灵感的奇妙之旅,共同见证技术的力量! 蚂蚁集团 ICLR 2025 之旅ICLR 2025 论文录取结果已揭晓,大会共接收 11,565 份投稿,收录率为 32.08%,入选 Spotlight 和 Oral Presentation (口头报告) 的比例约为 5.1%。
4/17/2025 8:39:00 PM
机器之心
  • 1