AI在线 AI在线

摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配

摩尔线程宣布,6 月 27 日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队率先完成该模型在全功能 GPU 的深度适配与高效支持。
感谢摩尔线程宣布,6 月 27 日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队率先完成该模型在全功能 GPU 的深度适配与高效支持。

据介绍,作为业界首个 13B 级别的 MoE 开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达 800 亿,激活参数为 130 亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。

摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配

摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配

摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配

从混元官方发布的 benchmark 测试结果来看:Hunyuan-A13B 在多个代码和数学任务上都取得了最高分数。在 MMLU、MMLU-PRO 等诸多众聚合任务上,Hunyuan-A13B 达到了与 Qwen3-A22B 模型同等的水平,表现出优秀的综合能力。

摩尔线程积极响应开源社区的号召,旨在让更多开发者基于国产全功能 GPU 进行 AI 应用创新。此前,摩尔线程在深度求索 DeepSeek、通义千问 QwQ-32B 和 Qwen3 等模型的发布当日,就成功实现了 Day-0 支持

关于腾讯混元-A13B 模型的详细信息,AI在线此前进行了详细报道,感兴趣的朋友可以自行查看。

相关资讯

国产 GPU 助力,摩尔线程实现对 DeepSeek 蒸馏模型推理服务部署

DeepSeek 开源模型(如 V3、R1 系列)在多语言理解与复杂推理任务中展现了卓越性能。摩尔线程智能科技(北京)有限责任公司今日发文宣布,摩尔线程实现了对 DeepSeek 蒸馏模型推理服务部署。
2/4/2025 11:38:52 AM
归泷(实习)

摩尔线程支持 DeepSeek 开源周“全家桶”

摩尔线程宣布全面支持DeepSeek开源周的五大项目,包括FlashMLA、DeepEP、DeepGEMM、DualPipe和Fire-Flyer 文件系统(3FS)。#摩尔线程##DeepSeek开源周##DeepSeek#
3/2/2025 9:12:24 AM
归泷(实习)

Day0 级支持,摩尔线程官宣支持通义千问 QwQ-32B 开源模型

3 月 6 日,阿里云团队正式开源全新推理模型 —— 通义千问 QwQ-32B。摩尔线程智能科技(北京)股份有限公司今日宣布在该模型发布后 2 小时内,完成对其支持。
3/6/2025 8:08:26 PM
归泷(实习)
  • 1