巨人財經 - 專業科技行業財經媒體

阿里達摩院發布RynnBrain并開源全系列模型 助力機器人邁向通用具身智能新階段

   發布時間:2026-02-10 22:59 作者:陸辰風

阿里巴巴達摩院近日在具身智能領域取得重大突破,正式推出全球首個具備時空記憶與物理世界推理能力的智能大腦基礎模型RynnBrain,并同步開源包含30B MoE架構在內的7個全尺寸模型矩陣。該模型在16項國際權威評測中刷新紀錄,超越谷歌Gemini Robotics ER 1.5等頂尖系統,標志著機器人智能水平邁入新階段。

傳統機器人系統在執行多任務時面臨顯著局限,而RynnBrain通過創新性引入時空記憶模塊,使機器人具備任務狀態記憶能力。實驗顯示,當機器人執行A任務途中被要求優先完成B任務時,系統可精準記錄A任務的空間坐標、物體狀態及時間節點,待B任務完成后自動恢復A任務進程。這種能力在倉儲物流、醫療護理等復雜場景中具有重要應用價值。

在技術架構層面,RynnBrain突破性地實現認知、定位、推理、規劃等能力的深度融合。通過模塊化設計,該模型可快速衍生出導航、操作、交互等垂直領域模型。以具身規劃模型為例,僅需數百條場景數據微調即可達到行業領先水平,在動態障礙物避讓、多目標路徑優化等任務中表現尤為突出。

開源生態建設方面,達摩院此次釋放的模型矩陣涵蓋從1B到30B不同參數規模,其中30B MoE模型通過專家混合架構實現效率躍升,使機器人動作響應速度提升40%。配套發布的RynnBrain-Bench評測基準,首次建立時空細粒度任務評估體系,包含動態環境適應、長期任務記憶等200余項測試指標,為行業提供標準化評估工具。

據項目負責人趙德麗介紹,RynnBrain的研發突破了傳統具身智能"大腦-小腦"分離架構的局限,通過構建統一的世界模型實現感知-認知-決策的閉環。目前該系統已在工業分揀、家庭服務等場景完成驗證,其多模態交互能力可支持機器人理解復雜指令并自主規劃解決方案。

達摩院具身智能實驗室同步開源了WorldVLA視覺語言動作模型、RynnEC世界理解框架等組件,并制定首個機器人上下文通信協議RynnRCP。這些技術成果將降低具身智能研發門檻,推動AI技術從數字空間向物理世界的加速滲透。

 
 
更多>同類內容
全站最新
熱門內容
本欄最新