巨人財經 - 專業科技行業財經媒體

京東發力具身智能:搭建數據基建,發動60萬人采集數據筑超級供應鏈

   發布時間:2026-04-18 06:02 作者:鄭浩

在具身智能領域持續發力的京東,于近日舉辦了一場備受矚目的生態發布會,正式推出具身智能數據基礎設施全景圖,涵蓋“采、存、標、訓、評、仿、測”全流程,同時亮相了自研超高清采集終端JoyEgoCam、具身大模型JoyAI-RA以及具身智能數據交易平臺等創新成果。

當前,具身智能正加速向應用場景滲透,但高質量、強可用性且源于真實場景交互的數據匱乏,成為制約其發展的關鍵因素。硬件標準不統一、數據采集流程分散,導致采集到的數據難以直接用于模型訓練。數據、硬件、算力和模型之間的協同問題,使得具身智能的實際應用效果受限,甚至被調侃“只能看機器人翻跟頭、轉手絹”。

京東憑借其在供應鏈領域的深厚積累,試圖通過搭建和使用相關基礎設施,打通從數據采集到模型測試的全流程閉環。京東希望將原始雜亂的數據轉化為驅動模型進化的高價值“數據燃料”,推動具身智能在零售、物流、工業、健康等場景實現規模化商業落地,構建屬于自己的“具身智能超級供應鏈”。

為實現這一目標,京東計劃發動大規模數據采集行動。未來兩年內,將動員最多60萬人參與,積累1000萬小時人類真實場景視頻數據。參與人員包括超過10萬京東員工和50萬外部協作人員,涵蓋京東線下零售業態的店員、京東物流的快遞員、京東家政的保潔人員等。據了解,除提供采集設備外,京東現階段還會為這些采集人員提供一定報酬。

京東集團副總裁、京東云基礎云業務總經理龔義成在發布會上指出,當前數據采集面臨諸多難點。首要問題是如何找到對具身模型有用、可定義且可規模化的數據,采集的數據維度至關重要。其次是大規模數據處理,這涉及較強的技術性和成本控制。還需考慮模型數據的飛輪效應,確保數據對模型有效。

此次發布的可穿戴式超高清采集終端JoyEgoCam成為一大亮點。該設備配備4K高清攝像頭,支持60幀幀率和130度超廣角拍攝,可毫秒級捕捉動作細節,重投影誤差小于0.2像素。整機重220克,內置車規級6軸IMU與多傳感器融合單元,實現“即戴即采”,讓普通人也能完成專業級數據采集。未來,京東還將拓展手部、肢體乃至整個動態軌跡的數據采集。

采集后的數據進入上傳和加工階段。數據匯入AI數據湖平臺后,憑借PB級吞吐能力自動完成清洗、對齊、轉換與預標注,轉化為標準訓練集。JoyBuilder仿真平臺可批量生成高逼真仿真數據,實現人類操作數據、仿真操作數據和真機操作數據的高效增值轉換與泛化擴增。治理后的數據匯聚至JoyBuilder模型開發平臺,自研AI算子矩陣貫穿數據去畸變、語義描述、深度重建等環節。目前,京東日處理數據量達數十萬條,數據有效率達95%,整體處理成本降低60%。

模型與數據相互促進,模型反哺數據標注與采集,數據質量越高,模型迭代效率與精度越高。以自采數據為核心訓練的京東具身大模型JoyAI-RA,在真機實驗上成功率達到73.5%。

同步上線的京東具身智能數據交易平臺,匯聚了京東業務場景下的多模態數據資源,支持數據方、開發者、應用方多方協同。平臺首批定向開放2000小時高精標注數據集,技術社區也即將上線,為具身智能領域的發展提供更多支持與便利。

 
 
更多>同類內容
全站最新
熱門內容
本欄最新