AI在线 AI在线

通义千问再放大招!Qwen3-VL 家族新增 2B 与 32B 模型,开源矩阵全面升级

当全球大模型竞赛进入深水区,阿里云选择用更密集、更开放的模型矩阵回应挑战。 10 月 22 日,通义千问团队正式推出 Qwen3-VL 家族的两款全新密集型(Dense)模型——2B 与 32B,不仅填补了现有产品线的关键档位,更将整个系列的开源模型数量推至 24 个,构建起从轻量级到超大规模的完整技术生态。 至此,Qwen3-VL 家族已拥有四款 Dense 模型(2B、4B、8B、32B)和两款 Mixture of Experts(MoE)架构模型(30B-A3B 与 235B-A22B),参数规模横跨 20 亿至 2350 亿,精准覆盖从边缘设备部署到云端超大规模推理的全场景需求。

当全球大模型竞赛进入深水区,阿里云选择用更密集、更开放的模型矩阵回应挑战。 10 月 22 日,通义千问团队正式推出 Qwen3-VL 家族的两款全新密集型(Dense)模型——2B 与 32B,不仅填补了现有产品线的关键档位,更将整个系列的开源模型数量推至 24 个,构建起从轻量级到超大规模的完整技术生态。

至此,Qwen3-VL 家族已拥有四款 Dense 模型(2B、4B、8B、32B)和两款 Mixture of Experts(MoE)架构模型(30B-A3B 与 235B-A22B),参数规模横跨 20 亿至 2350 亿,精准覆盖从边缘设备部署到云端超大规模推理的全场景需求。更值得注意的是,所有模型均提供 Instruct(指令微调)与 Thinking(推理增强)两个版本,开发者可根据任务特性灵活选用。

为兼顾性能与效率,阿里云还同步发布了 12 款 FP8 量化版本模型。这些轻量化变体在几乎不损失精度的前提下,显著降低显存占用与推理延迟,让高性能多模态 AI 能在更多实际业务中快速落地。

所有 Qwen3-VL 开源权重模型现已全面开放,用户可在魔搭(ModelScope)社区与 Hugging Face 平台免费下载,并支持商业用途。这一策略不仅大幅降低了企业接入前沿多模态能力的门槛,也为学术界与创业团队提供了即拿即用的技术基座。

在闭源模型筑起高墙的当下,阿里云选择以开源生态破局。Qwen3-VL 的持续扩展,不仅是技术实力的体现,更是一种对开放协作、普惠智能的坚定承诺。随着模型家族日益壮大,通义千问正从“可用”迈向“好用”与“易用”,加速推动 AI 能力从实验室走向千行百业的真实场景。

相关资讯

通义千问正式发布Qwen3-Embedding系列模型

近日,通义千问官方正式发布了Qwen3-Embedding系列模型,作为Qwen模型家族的新成员,该系列模型专为文本表征、检索与排序任务而设计。 Qwen3-Embedding系列基于Qwen3基础模型进行训练,充分继承了Qwen3在多语言文本理解能力上的显著优势。 该系列模型在多项基准测试中表现出色,特别是在文本表征和排序任务中展现了卓越性能。
6/6/2025 9:00:55 AM
AI在线

阿里通义千问 Qwen3 系列模型有望今日发布,支持 256K 上下文长度

阿里通义千问Qwen3系列模型今日发布,包括Qwen3-4B-Base、Qwen3-1.7B、Qwen3-0.6B及Qwen3-30B-A3B-Base四款模型,支持高达256K的上下文长度。#AI模型##开源技术#
4/28/2025 8:18:40 PM
远洋

凌晨,Qwen又更新了,3090就能跑,3B激活媲美GPT-4o

继前段时间密集发布了三款 AI 大模型后,Qwen 凌晨又更新了 —— 原本的 Qwen3-30B-A3B 有了一个新版本:Qwen3-30B-A3B-Instruct-2507。 这个新版本是一个非思考模式(non-thinking mode)的新模型。 它的亮点在于,仅激活 30 亿(3B)参数,就能展现出与业界顶尖闭源模型,如谷歌的 Gemini 2.5-Flash(非思考模式)和 OpenAI 的 GPT-4o 相媲美的超强实力,这标志着在模型效率和性能优化上的一次重大突破。
7/30/2025 10:20:00 AM
机器之心
  • 1