小米技術(shù)新突破!具身大模型 MiMo-Embodied 正式發(fā)布并全面開源
隨著具身智能逐步落地家居場景、自動駕駛技術(shù)邁向規(guī)?;瘧?yīng)用,行業(yè)內(nèi)一個關(guān)鍵問題日益凸顯:機(jī)器人與車輛如何更好地實現(xiàn)認(rèn)知與能力互通?室內(nèi)作業(yè)智能與室外駕駛智能能否實現(xiàn)相互促進(jìn)?為此,我們重磅推出 —— 具身大模型「MiMo-Embodied」。

作為業(yè)界首個成功打通自動駕駛與具身智能的跨域具身基座模型,它實現(xiàn)了兩大領(lǐng)域任務(wù)的統(tǒng)一建模,標(biāo)志著通用具身智能研究從 “垂直領(lǐng)域?qū)S谩?向 “跨域能力協(xié)同” 邁出關(guān)鍵一步。為推動社會對通用具身智能范式的進(jìn)一步探索,該模型現(xiàn)已全面開源。
三大核心技術(shù)亮點
跨域能力覆蓋:同步支持具身智能三大核心任務(wù)(可供性推理、任務(wù)規(guī)劃、空間理解)與自動駕駛?cè)箨P(guān)鍵任務(wù)(環(huán)境感知、狀態(tài)預(yù)測、駕駛規(guī)劃),形成全場景智能支撐;
雙向協(xié)同賦能:驗證了室內(nèi)交互能力與道路決策能力的知識轉(zhuǎn)移協(xié)同效應(yīng),為跨場景智能融合提供了新的思路;
全鏈優(yōu)化可靠:采用 “具身/自駕能力學(xué)習(xí)→ CoT 推理增強(qiáng)→RL 精細(xì)強(qiáng)化” 多階段訓(xùn)練策略,有效提升模型在真實環(huán)境中的部署可靠性。
雙領(lǐng)域 SOTA 與范式驗證

在涵蓋感知、決策與規(guī)劃的 29 項核心基準(zhǔn)測試(Benchmarks)中,MiMo-Embodied 確立了開源基座模型的性能新標(biāo)桿,全面優(yōu)于現(xiàn)有的開源、閉源及專用模型:
具身智能領(lǐng)域:在 17 個 Benchmarks 上取得 SOTA 成績,重新定義了任務(wù)規(guī)劃、可供性預(yù)測及空間理解的能力邊界;
自動駕駛領(lǐng)域:在 12 個 Benchmarks 上表現(xiàn)卓越,實現(xiàn)了環(huán)境感知、狀態(tài)預(yù)測與駕駛規(guī)劃的全鏈路性能突破。
通用視覺語言領(lǐng)域:在夯實通用感知與理解能力的同時,進(jìn)一步在多項關(guān)鍵基準(zhǔn)上實現(xiàn)了顯著的性能躍升,展現(xiàn)了卓越的泛化性。
從家庭場景到城市道路,MiMo-Embodied 正推動智能技術(shù)向 “可用、可信、可擴(kuò)展” 的現(xiàn)實世界穩(wěn)步邁進(jìn),為小米人車家全生態(tài)注入核心技術(shù)動能!
模型與代碼現(xiàn)已開源,歡迎全球開發(fā)者與研究人員共同參與,探索具身智能的無限可能~
技術(shù)報告:https://arxiv.org/abs/2511.16518
開源代碼:GitHub - XiaomiMiMo/MiMo-Embodied: MiMo-Embodied
MiMo-Embodied 模型:https://huggingface.co/XiaomiMiMo/MiMo-Embodied-7B
(審核編輯: 光光)
分享