AI在线 AI在线

小米开源3090亿参数MiMo-V2-Flash大模型,推理速度碾压主流竞品,API低至0.1美元/百万Token

小米正式进军高性能开源大模型赛道。 近日,公司发布了全新基础语言模型 MiMo-V2-Flash,并同步以 MIT协议全面开源 模型权重与推理代码。 该模型以“超高速、高效率”为核心卖点,在推理、代码生成与智能体任务中表现尤为突出,实测响应速度甚至超越当前热门的豆包、DeepSeek和元宝等国产模型,引发开发者社区广泛关注。

小米正式进军高性能开源大模型赛道。近日,公司发布了全新基础语言模型 MiMo-V2-Flash,并同步以 MIT协议全面开源 模型权重与推理代码。该模型以“超高速、高效率”为核心卖点,在推理、代码生成与智能体任务中表现尤为突出,实测响应速度甚至超越当前热门的豆包、DeepSeek和元宝等国产模型,引发开发者社区广泛关注。

image.png

MiMo-V2-Flash采用稀疏激活架构,总参数量高达3090亿,但每次推理仅激活150亿参数,在保持强大能力的同时显著降低计算开销。这一设计使其在多项公开基准测试中稳居开源模型第一梯队,兼顾性能与成本效率。

网友实测反馈显示,MiMo-V2-Flash的响应速度“快得令人意外”——在相同硬件环境下,其生成延迟明显低于DeepSeek等竞品,尤其在多轮对话与复杂逻辑推理场景中优势更为显著。有开发者评价:“不是快一点,是快一个量级。”

小米MiMo-V2-Flash大模型发布 回答速度出乎网友意料 比DeepSeek快

为加速生态落地,小米同步推出极具竞争力的API定价:每百万输入Token仅0.1美元,输出Token0.3美元,并提供限时免费试用。这一价格远低于主流商业模型,为中小企业和独立开发者提供了高性价比的替代方案。

值得注意的是,MiMo-V2-Flash并非仅面向开发者,其通用能力也适配日常AI助手场景,可无缝集成至手机、智能家居、车载系统等小米“人车家全生态”终端。就在模型发布当天,小米将举办 人车家全生态合作伙伴大会,预计将进一步披露MiMo-V2-Flash在端云协同、设备端部署及多模态扩展等方面的深度应用规划。

小米MiMo-V2-Flash大模型发布 回答速度出乎网友意料 比DeepSeek快

在国产大模型竞争白热化的当下,小米选择以“高性能+真开源+低门槛”组合拳切入,不仅彰显其AI战略的长期决心,更可能重塑开源模型的性能与成本预期。当3090亿参数的巨模型也能“快如闪电”,大模型的竞技场,又多了一位不容忽视的重量级玩家。

相关资讯

小米首个推理大模型Xiaomi MiMo开源

2025年4月30日,小米公司宣布开源其首个为推理(Reasoning)而生的大模型「Xiaomi MiMo」。 这一模型的发布标志着小米在人工智能领域迈出了重要的一步,特别是在推理能力的提升上取得了显著进展。 「Xiaomi MiMo」的诞生旨在探索如何激发模型的推理潜能,特别是在预训练增长见瓶颈的情况下。
4/30/2025 10:00:55 AM
AI在线

70亿参数干翻320亿?小米扔出“核弹级”AI MiMo 你的“破电脑”也能跑赢奥数题和复杂代码!

小米正式在Hugging Face平台发布其首个专为推理(Reasoning)设计的开源大模型——MiMo-7B。 据AIbase了解,MiMo-7B通过从预训练到后训练的强化学习(RL)优化,展现了在数学、代码和通用推理任务上的卓越性能,超越了多个32亿参数以上的基线模型。 社交平台上的热烈讨论凸显了其对AI社区的深远影响,相关细节已通过Hugging Face(huggingface.co/xiaomi/MiMo-7B)与小米官网(xiaomi.com)公开。
4/30/2025 2:00:40 PM
AI在线

小米多模态大模型Xiaomi MiMo-VL开源

近日,小米公司研发的MiMo-VL多模态模型接过MiMo-7B的接力棒,在多个领域展现出了强大的实力。 该模型在图片、视频、语言的通用问答和理解推理等多个任务上大幅领先同尺寸标杆多模态模型Qwen2.5-VL-7B,在GUI Grounding任务上的表现更是可与专用模型相媲美,为Agent时代的到来做好了准备。 MiMo-VL-7B在多模态推理任务上成绩斐然,尽管参数规模仅为7B,却在奥林匹克竞赛(OlympiadBench)和多个数学竞赛(MathVision、MathVerse)中大幅领先参数规模10倍大的阿里Qwen-2.5-VL-72B和QVQ-72B-Preview,同时也超越了闭源模型GPT-4o。
5/30/2025 10:01:14 AM
AI在线