AI在线 AI在线

MiniMax M2.1震撼开源!100亿激活参数编码模型登顶SOTA,多语言编程全面超越Gemini3Pro与Claude 4.5

国产大模型再攀高峰。 MiniMax今日正式开源其最新编码与智能体专用大模型——M2.1,以100亿激活参数的稀疏架构,在多语言编程、真实代码生成与工具调用等核心场景实现全面突破。 在权威基准SWE-Multilingual与VIBE-Bench上,M2.1不仅大幅领先同类开源模型,更超越谷歌Gemini3Pro、Anthropic Claude4.5Sonnet等闭源旗舰,标志着开源编码模型正式进入“性能碾压闭源”新阶段。

国产大模型再攀高峰。MiniMax今日正式开源其最新编码与智能体专用大模型——M2.1,以100亿激活参数的稀疏架构,在多语言编程、真实代码生成与工具调用等核心场景实现全面突破。在权威基准SWE-Multilingual与VIBE-Bench上,M2.1不仅大幅领先同类开源模型,更超越谷歌Gemini3Pro、Anthropic Claude4.5Sonnet等闭源旗舰,标志着开源编码模型正式进入“性能碾压闭源”新阶段。

image.png

真实编程场景全面领先,多语言SOTA

M2.1专为开发者日常编码需求与原生AI智能体(Agent)打造,其核心优势体现在:  

- 多语言编程SOTA:在Python、JavaScript、Java、Go、Rust、C++等主流语言中均达到当前开源模型最高水平,尤其在跨语言迁移能力与复杂项目上下文理解上表现突出;  

- 真实工程任务更强:在SWE-Multilingual(软件工程多语言基准)中,M2.1的代码修复准确率与端到端任务完成率显著优于Gemini3Pro与Claude4.5Sonnet;  

- 智能体协作优化:针对工具调用、API集成、错误诊断等Agent核心能力,在VIBE-Bench(Visual-Agent & Interactive Behavior Evaluation)中表现优异,为构建高可靠AI开发者代理提供强大基座。

稀疏激活架构,高性能低推理成本

M2.1采用混合专家(MoE)稀疏激活机制,在推理时仅激活约100亿参数(总参数量更大),在保证性能的同时显著降低算力消耗,使开发者能在消费级GPU或云实例上高效运行,推动高性能编码模型“平民化”。

开源生态加速爆发,国产模型迎头赶上

值得注意的是,就在M2.1发布前一日,智谱AI开源GLM系列新模型,在SWE-Bench单语言测试中与M2.1表现接近,共同彰显中国开源大模型在专业领域的爆发力。MiniMax团队在发布中特别感谢早期测试合作伙伴的反馈,强调M2.1是“为真实开发者而生”的工程化产物,而非单纯刷榜模型。

AIbase认为,M2.1的发布不仅是技术里程碑,更释放关键信号:在垂直专业领域,开源模型已具备全面挑战甚至超越闭源巨头的实力。当开发者无需依赖API、可自由部署、微调并审计代码模型,AI编程的真正民主化时代才真正开启——而这场由MiniMax引领的开源革命,正重塑全球开发者工具链的未来格局。

官方文档:https://www.minimax.io/news/minimax-m21

相关资讯

​Mistral AI 推出第二代开源编码模型Devstral2和 Devstral Small2,性能大幅提升

​Mistral AI 推出第二代开源编码模型Devstral2和 Devstral Small2,性能大幅提升

近日,Mistral AI 正式发布了其第二代开源编码模型家族,分别命名为 Devstral2和 Devstral Small2。 这两款新模型不仅在性能上取得了显著进展,而且在许可策略上也进行了差异化设计,以适应不同规模用户的需求。 旗舰模型 Devstral2的参数量高达1230亿,在业内知名的 SWE-Bench Verified 基准测试中,Devstral2的得分达到72.2%,超越了许多同类开源模型的表现。
12/10/2025 1:01:40 PM AI在线
MiniMax Agent 平台上线开源编码和代理模型 MiniMax M2.1

MiniMax Agent 平台上线开源编码和代理模型 MiniMax M2.1

MiniMax M2.1正式上线。 这款模型专为真实编码和原生 AI 组织设计,能够轻松应对从氛围构建到严肃工作流程的各种需求。 MiniMax M2.1是一款拥有100亿激活量的 SOTA(最先进技术)开源编码和代理模型,其在 SWE-multilingual 测试中得分72.5%,而在新发布的 VIBE-bench 测试中更是取得了88.6% 的高分,超越了 Gemini3Pro 和 Claude4.5Sonnet 等多款领先的闭源模型。
12/23/2025 2:41:53 PM AI在线
MiniMax推M2推理大模型:2300亿参数、100 token/s,专为智能Agent而生

MiniMax推M2推理大模型:2300亿参数、100 token/s,专为智能Agent而生

在大模型竞赛从“拼参数”转向“拼效率”的关键节点,MiniMax于10月27日发布新一代开源推理模型M2,以精准的工程取舍,锚定智能Agent这一下一代AI应用的核心战场。 M2采用混合专家架构(Mixture-of-Experts, MoE),总参数量达2300亿,但每次推理仅激活100亿参数,实现高达每秒100个token的输出速度——这一性能指标使其在实时交互场景中具备显著优势。 尤为关键的是,M2专为智能Agent设计,强化了在行为决策、多轮任务规划与环境交互中的推理连贯性与响应效率,为构建真正自主的AI智能体提供底层引擎。
10/28/2025 10:11:33 AM AI在线