AI在线 AI在线

腾讯发布Hunyuan-TurboS:首款超大型混合Transformer-Mamba MoE模型震撼登场

今日,腾讯在X平台上正式宣布推出其最新AI模型Hunyuan-TurboS,这款被誉为“首款超大型Hybrid-Transformer-Mamba MoE模型”的产品迅速引发全球科技圈的热议。 根据X用户披露的信息,Hunyuan-TurboS通过融合Mamba的高效长序列处理能力和Transformer的强大上下文理解能力,成功克服了传统纯Transformer模型在长文本训练和推理上的瓶颈,展现出令人瞩目的性能突破。 据介绍,传统Transformer模型因O(N²)复杂度和KV-Cache问题,在处理长文本时往往面临效率低下和高成本的挑战。

今日,腾讯在X平台上正式宣布推出其最新AI模型Hunyuan-TurboS,这款被誉为“首款超大型Hybrid-Transformer-Mamba MoE模型”的产品迅速引发全球科技圈的热议。根据X用户披露的信息,Hunyuan-TurboS通过融合Mamba的高效长序列处理能力和Transformer的强大上下文理解能力,成功克服了传统纯Transformer模型在长文本训练和推理上的瓶颈,展现出令人瞩目的性能突破。

1.png

据介绍,传统Transformer模型因O(N²)复杂度和KV-Cache问题,在处理长文本时往往面临效率低下和高成本的挑战。而Hunyuan-TurboS巧妙结合了两大技术优势,不仅大幅提升了计算效率,还在多项关键基准测试中超越了业界顶尖模型。X用户bayrashad指出,该模型在数学、推理和对齐性(Alignment)上击败了GPT-4o-0806、DeepSeek-V3以及多个开源模型,同时在知识领域(包括MMLU-Pro基准)也表现出强劲竞争力。此外,其推理成本仅为前代Turbo模型的七分之一,显示出极高的性价比。

2.png

Hunyuan-TurboS的成功离不开腾讯在后训练阶段的全面优化。据csdognin在X上的帖子透露,该模型整合了“慢思考”机制,显著提升了数学、编程和推理能力;通过精细化的指令调整,进一步增强了对齐性和智能代理执行效率;同时针对英语训练的优化也使其通用性能更上一层楼。更值得一提的是,腾讯为Hunyuan-TurboS升级了奖励系统,采用基于规则的评分、一致性验证以及代码沙盒反馈机制,确保了在STEM(科学、技术、工程和数学)领域的更高准确性。此外,生成式奖励机制的引入有效提升了问答质量和创造力,同时减少了奖励操控的风险。

业界对Hunyuan-TurboS的发布反响热烈。X用户koltregaskes称其为“AI未来的象征”,而ANDREW_FDWT则强调了其技术创新对长文本处理的革命性意义。有分析人士指出,Hunyuan-TurboS的亮相不仅巩固了腾讯在全球AI竞赛中的地位,也为高效、低成本AI模型的发展树立了新标杆。

目前,腾讯尚未公布Hunyuan-TurboS的具体开源计划或商业部署细节,但其卓越性能已足以引发业界期待。正如csdognin在帖子中所言:“AI的未来已来!”这款模型的问世无疑将推动人工智能技术迈向新的高度,为学术研究和产业应用带来更多可能性。

相关资讯

腾讯开源 Hunyuan-A13B:小尺寸,大智慧的 AI 模型

Hunyuan-A13B 是一个由腾讯最新开源的大语言模型,它以创新的设计理念,在相对较小的活跃参数规模下,实现了强大的性能表现,特别适用于资源受限的环境。 这款模型采用了细粒度 MoE(Mixture-of-Experts)架构,拥有130亿活跃参数,但总参数量高达800亿。 这种设计让它在保持高效和可扩展性的同时,能够提供前沿的推理能力和通用应用支持。
6/30/2025 10:00:59 AM
AI在线

腾讯开源翻译巨头 Hunyuan-MT-7B:斩获 WMT2025 三十项冠军,翻译界的新霸主!

近日,腾讯在 2025 年世界机器翻译大会(WMT2025)上表现惊艳,正式推出了他们的翻译大模型 ——Hunyuan-MT-7B。 这个模型在比赛中获得了 30 个语种的第一名,成为同类产品中的佼佼者,彰显了其强大的翻译能力。 Hunyuan-MT-7B 的成功不是偶然。
9/2/2025 9:07:02 AM
AI在线

全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源

9月1日,腾讯混元宣布将旗下刚刚获得国际翻译比赛冠军的模型开源,供开发者免费下载部署。 这一模型命名为Hunyuan-MT-7B,总参数量仅7B,支持33个语种、5种民汉语言/方言互译,是一个能力全面的轻量级翻译模型。  同时开源的还有一个翻译集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是业界首个翻译集成模型,它能够根据原文和多个翻译模型给出的不同内容,再生成一个更优的翻译结果,不仅原生支持Hunyuan-MT-7B,也支持接入 Deepseek 等模型,对于一些有专业翻译需求的用户和场景,可以提供更加准确的回复。
9/2/2025 9:54:00 AM
新闻助手
  • 1