AI在线 AI在线

小米发布具身大模型 MiMo-Embodied 并开源

今日,小米公司正式对外发布具身大模型MiMo-Embodied,并宣布该模型将全面开源。 这一动作标志着小米在通用具身智能研究领域迈出了重要一步。 随着具身智能在家居场景的逐步落地以及自动驾驶技术的规模化应用,机器人与车辆如何更好地实现认知与能力互通,室内作业智能与室外驾驶智能能否相互促进,成为行业内亟待解决的关键问题。

今日,小米公司正式对外发布具身大模型MiMo-Embodied,并宣布该模型将全面开源。这一动作标志着小米在通用具身智能研究领域迈出了重要一步。

小米具身大模型MiMo-Embodied正式发布:全面开源

随着具身智能在家居场景的逐步落地以及自动驾驶技术的规模化应用,机器人与车辆如何更好地实现认知与能力互通,室内作业智能与室外驾驶智能能否相互促进,成为行业内亟待解决的关键问题。小米此次发布的MiMo-Embodied模型,正是针对这些挑战而研发,它成功打通了自动驾驶与具身智能两大领域,实现了任务统一建模,从“垂直领域专用”向“跨域能力协同”实现了关键跨越。

小米具身大模型MiMo-Embodied正式发布:全面开源

MiMo-Embodied模型具有三大核心技术亮点。首先,它具备跨域能力覆盖,同步支持具身智能的三大核心任务,即可供性推理、任务规划、空间理解,以及自动驾驶的三大关键任务,即环境感知、状态预测、驾驶规划,为全场景智能提供了有力支撑。其次,该模型验证了室内交互能力与道路决策能力的知识转移协同效应,为跨场景智能融合提供了新的思路。最后,MiMo-Embodied采用“具身/自驾能力学习CoT推理增强RL精细强化”多阶段训练策略,有效提升了模型在真实环境中的部署可靠性。

在性能表现上,MiMo-Embodied在涵盖感知、决策与规划的29项核心基准测试中确立了开源基座模型的性能新标杆,全面优于现有的开源、闭源及专用模型。在具身智能领域,该模型在17个基准测试上取得SOTA成绩,重新定义了任务规划、可供性预测及空间理解的能力边界;在自动驾驶领域,它在12个基准测试上表现卓越,实现了环境感知、状态预测与驾驶规划的全链路性能突破。此外,在通用视觉语言领域,MiMo-Embodied也展现了卓越的泛化性,在夯实通用感知与理解能力的同时,进一步在多项关键基准上实现了显著的性能跃升。

开源地址:

  • https://huggingface.co/XiaomiMiMo/MiMo-Embodied-7B

相关资讯

小米首个推理大模型Xiaomi MiMo开源

2025年4月30日,小米公司宣布开源其首个为推理(Reasoning)而生的大模型「Xiaomi MiMo」。 这一模型的发布标志着小米在人工智能领域迈出了重要的一步,特别是在推理能力的提升上取得了显著进展。 「Xiaomi MiMo」的诞生旨在探索如何激发模型的推理潜能,特别是在预训练增长见瓶颈的情况下。
4/30/2025 10:00:55 AM
AI在线

70亿参数干翻320亿?小米扔出“核弹级”AI MiMo 你的“破电脑”也能跑赢奥数题和复杂代码!

小米正式在Hugging Face平台发布其首个专为推理(Reasoning)设计的开源大模型——MiMo-7B。 据AIbase了解,MiMo-7B通过从预训练到后训练的强化学习(RL)优化,展现了在数学、代码和通用推理任务上的卓越性能,超越了多个32亿参数以上的基线模型。 社交平台上的热烈讨论凸显了其对AI社区的深远影响,相关细节已通过Hugging Face(huggingface.co/xiaomi/MiMo-7B)与小米官网(xiaomi.com)公开。
4/30/2025 2:00:40 PM
AI在线

小米多模态大模型Xiaomi MiMo-VL开源

近日,小米公司研发的MiMo-VL多模态模型接过MiMo-7B的接力棒,在多个领域展现出了强大的实力。 该模型在图片、视频、语言的通用问答和理解推理等多个任务上大幅领先同尺寸标杆多模态模型Qwen2.5-VL-7B,在GUI Grounding任务上的表现更是可与专用模型相媲美,为Agent时代的到来做好了准备。 MiMo-VL-7B在多模态推理任务上成绩斐然,尽管参数规模仅为7B,却在奥林匹克竞赛(OlympiadBench)和多个数学竞赛(MathVision、MathVerse)中大幅领先参数规模10倍大的阿里Qwen-2.5-VL-72B和QVQ-72B-Preview,同时也超越了闭源模型GPT-4o。
5/30/2025 10:01:14 AM
AI在线