AI在线 AI在线

Qwen3-Next 发布:通义千问的训练&推理效率革命

近日,阿里巴巴旗下的通义千问(Qwen)团队发布了全新模型 Qwen3-Next,在保持性能的同时大幅提升训练与推理效率,引起了 AI 界广泛关注。 下面带大家深入了解一下 Qwen3-Next 的亮点、技术突破,以及它对未来应用的意义。 什么是 Qwen3-NextQwen3-Next 是 Qwen 系列的最新成员,基于 Qwen3 架构进行改进与优化。

Qwen3-Next 发布:通义千问的训练&推理效率革命

近日,阿里巴巴旗下的通义千问(Qwen)团队发布了全新模型 Qwen3-Next,在保持性能的同时大幅提升训练与推理效率,引起了 AI 界广泛关注。下面带大家深入了解一下 Qwen3-Next 的亮点、技术突破,以及它对未来应用的意义。

什么是 Qwen3-Next

Qwen3-Next 是 Qwen 系列的最新成员,基于 Qwen3 架构进行改进与优化。官方博客中提到,它是朝着“终极训练与推理效率”(ultimate training & inference efficiency)方向迈出了一大步。

简而言之,Qwen3-Next 旨在让大模型在训练成本更低、推理速度更快的条件下,依然保持前辈 Qwen3 的强大能力。

技术亮点与突破

以下是 Qwen3-Next 的几个关键技术创新:

1. 稀疏专家(Mixture of Experts, MoE)架构

模型总参数约 800 亿(80B),但在推理时不激活全部专家,仅启用约 3B 参数(active 参数)参与推理。大幅减少推理时计算资源消耗,同时保留模型的表达能力。

2. 混合注意力机制(Hybrid Attention + Gate Attention)

引入新的 attention 机制,比如 “线性注意力 + 门控注意力” 的混合设计,以提升长输入(long context)下的处理效率。当输入 token 数多时,模型第一 token 的生成速度、以及 decode 阶段速度都有明显提升。官方说在 32,000 token 或更高时,“prefill” 阶段比 Qwen3-32B 快 ~10.6 倍,decode 阶段快约 10 倍。

3. 训练成本大幅降低

虽然总参数规模比一些 Qwen3 前代模型高,但通过架构设计与活跃参数控制使得训练成本低于 Qwen3-32B。 对比前代模型,训练所需资源显著压缩,更具成本效益。

4. 思考模式 vs 非思考模式

类似于 Qwen3 系列中已有的混合推理模式(thinking/non-thinking mode),Qwen3-Next 的 Instruct 与 Thinking 两个子模型也支持不同任务的需求。 用户可以对任务复杂性进行区分,复杂的任务用 thinking 模式,快速响应可用非 thinking 模式,以取得速度与准确性的平衡。

性能表现

根据公开发布的 benchmark 与测试结果,Qwen3-Next 在多个维度都有优异表现:

  • 在长上下文 (long context) 情景下,输出第一个 token 的速度在输入 very large token 数量时,比 Qwen3-32B 快 约 10 倍。
  • 在 decode 阶段(即生成后续内容时)速度也有类似的提升。
  • 性能方面,据说在某些任务 Qwen3-Next-80B-A3B 的评测结果已经等同甚至优于Qwen3-32B。
  • 在成本效益方面,用于训练与部署的资源投入显著低于一些大规模密集模型。

意义与潜在应用

Qwen3-Next 的发布,不只是一次参数或速度的升级,更意味着在几个方向上可能带来实际应用的变革:

1. 长上下文任务更实用比如大篇幅文档理解、法律文本、会议记录、论文摘要等,需要处理非常长输入的场景,以前模型在这些情况下成本太高或速度太慢。Qwen3-Next 的长 context + 快推理,有望使这些任务变得更加可用。

2. 降低部署门槛对于资源有限的机构或企业,小规模硬件、云资源较小的情况,以前较大的模型费用与延迟可能令人望而却步。稀疏激活 + 高效推理意味着在较少计算资源下,也能取得不错效果。

3. 灵活的用户体验用户可根据任务性质选择 “思考” 模式与 “快速响应” 模式,从而在互动式系统、客服机器人、写作辅助工具等场景里获得更好的体验。

4. 推动 AI 模型架构研究Qwen3-Next 在 MoE、混合注意力、长 context scaling 这些方向上的创新,为学术界与工业界提供了新样本,也可能促使其他模型制造者仿效或优化类似思路。

总结

Qwen3-Next 是一次在效率与性能之间取得漂亮平衡的尝试:在训练成本与推理速度上做出突破,同时不牺牲模型的表现。这对于 AI 应用普及、长上下文任务的可用性、以及资源受限环境的部署都有重要意义。未来几个月,我们可以期待 Qwen3-Next 在更多实际产品中的应用,以及社区对其优势与局限的不断验证。

相关资讯

Qwen-Image:AI 设计师新搭档,文字排版不再是难题

在生成式 AI 日益成熟的今天,图像生成/编辑能力的发展越来越受到人们的期待。 而在所有能力中,“文字渲染”(尤其是中文/中英混排/长段落/复杂布局字体等)的精度,一直是个难点。 今天,我们要介绍的是通义千问系列中的最新图像基础模型 —— Qwen-Image,它在文字渲染与图像编辑方面取得了显著突破,是内容创作者、设计师和视觉工作者的有力助手。
9/15/2025 5:00:00 AM
AI大模型应用开发

720亿参数大模型都拿来开源了!通义千问开源全家桶,最小18亿模型端侧都能跑

目前,通义千问开源全家桶已经有了 18 亿、70 亿、140 亿、720 亿参数量的 4 款基础开源模型,以及跨语言、图像、语音等多种模态的多款开源模型。「Qwen-72B 模型将于 11 月 30 日发布。」前几天,X 平台上的一位网友发布了这样一则消息,消息来源是一段对话。他还说,「如果(新模型)像他们的 14B 模型一样,那将是惊人的。」有位网友转发了帖子并配文「千问模型最近表现不错」。这句话里的 14B 模型指的是阿里云在 9 月份开源的通义千问 140 亿参数模型 Qwen-14B。当时,这个模型在多个权
12/1/2023 3:07:00 PM
机器之心

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

通义千问的图像推理能力,最近有了大幅提升。2024 年,大模型领域要卷什么?如果没有思路的话,不妨看看各家大厂都在押注什么方向。最近一段时间,先是 OpenAI 推出 GPT-4V,让大模型拥有了前所未有的图像语义理解能力。谷歌随后跟上,发布的 Gemini 成为了业界第一个原生的多模态大模型,它可以泛化并无缝地理解、操作和组合不同类型的信息,包括文本、代码、音频、图像和视频。很明显,新的方向就是多模态。继 GPT-4 在语言方向的里程碑式突破之后,业界普遍认为「视觉」是下一个爆发的赛道。毕竟人类的五感之中有 80
1/26/2024 2:53:00 PM
机器之心
  • 1