北京人形機器人創(chuàng)新中心開源強大具身智能模型 Pelican - VL 1.0
IT 之家 11 月 14 日消息,北京人形機器人創(chuàng)新中心昨晚宣布將具身智能 VLM 模型 —— Pelican - VL 1.0 全面開源。
據(jù)官方介紹,該模型有 7B、72B 兩種參數(shù)規(guī)模,是目前“最大規(guī)模的開源具身多模態(tài)大模型”,也是全球性能最強的具身智能 VLM 模型。測試顯示,其性能比 GPT - 5 同類模型高 15.79%,相較于 Google gemini 系列模型提升 19.25%,還超越了通義千問、書生萬象等國內(nèi)模型,成為當下最強的開源具身多模態(tài)大模型。

該團隊提出了全新的 DPPO(刻意訓練)訓練范式,這是全球首創(chuàng)的具身多模態(tài)大模型后訓練自進化算法框架。借助 DPPO,Pelican - VL 達成“性能最強”目標僅用了 200K 數(shù)據(jù)量,只是其他大模型的 1/10 甚至 1/50,堪稱開源 VLM 的性價比之王。
Pelican - VL 1.0 的開源,能顯著增強具身智能在商業(yè)服務、工業(yè)泛工業(yè)、高危特種作業(yè)、家庭服務等多種真實場景中,通過視覺 - 語言感知輔助多步任務規(guī)劃的能力。VLM 是實現(xiàn)機器人全自主的核心,Pelican 的開源將推動我國具身智能全自主發(fā)展。

此次開源的 Pelican - VL 1.0 核心優(yōu)勢在于深度整合海量數(shù)據(jù)與自適應學習機制。它在由 1000 + A800 GPU 組成的集群上訓練,單次檢查點訓練耗費超 50,000 A800 GPU - 小時;團隊從原始數(shù)據(jù)中提煉出包含數(shù)億 token 的高質(zhì)量元數(shù)據(jù)作為訓練基礎。憑借這些優(yōu)勢,Pelican - VL 1.0 在基線基礎上性能提升 20.3%,平均比 Qwen3 - VL 系列、InternVL3.5 系列等同級別開源模型高 10.6%。
得益于“刻意練習”DPPO(Deliberate Practice Policy Optimization)訓練范式,Pelican - VL 如同刻苦學習的學生,每次訓練循環(huán)都遵循“看視頻 — 自主練習 — 發(fā)現(xiàn)錯誤 — 糾正提升”的流程。DPPO 模仿人類元認知學習方式,通過強化學習(RL)探索弱點、生成失敗樣本,再進行有針對性的監(jiān)督微調(diào)(SFT),讓模型不斷自我糾錯和迭代進步。
就像學生總結(jié)錯題經(jīng)驗,Pelican - VL 能在訓練中找出“薄弱知識點”并彌補,持續(xù)提升視覺 - 語言和具身任務能力。通過這種機制,Pelican - VL 能更精準理解圖像內(nèi)容、語言指令和物理常識,最終在決策和操作執(zhí)行環(huán)節(jié),實現(xiàn)具身智能在空間 - 時間推理和動作規(guī)劃方面的重大突破。
本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com

