GTC大會上,理想釋出下一代自動駕駛架構MindVLA

李泽南發表於2025-03-18

MindVLA 一種是視覺-語言-行為大模型,是機器人大模型的新正規化。它將空間智慧、語言智慧和行為智慧統一在單個模型裡,為 AI 賦予了強大的 3D 空間理解能力、邏輯推理能力和行為生成能力,讓自動駕駛能夠感知、思考和適應環境。

3 月 18 日,理想汽車自動駕駛技術研發負責人賈鵬在英偉達 GTC 2025 大會上發表主題演講《VLA:邁向自動駕駛物理智慧體的關鍵一步》,分享了理想對於下一代自動駕駛技術 MindVLA 的最新思考和進展。

GTC大會上,理想釋出下一代自動駕駛架構MindVLA

賈鵬表示:「MindVLA 是機器人大模型,它成功整合了空間智慧、語言智慧和行為智慧,一旦跑通物理世界和數字世界結合的正規化後,將有望賦能更多行業。MindVLA 將把汽車從單純的運輸工具轉變為貼心的專職司機,它能聽得懂、看得見、找得到。我們希望 MindVLA 能為汽車賦予類似人類的認知和適應能力,將其轉變為能夠思考的智慧體。」

全棧自研:深度融合空間、語言及行為智慧

基於端到端 + VLM 雙系統架構的最佳實踐,及對前沿技術的敏銳洞察,理想提出了新的 VLA 模型——MindVLA。理想認為,VLA 是機器人大模型的新正規化,其將賦予自動駕駛強大的 3D 空間理解能力、邏輯推理能力和行為生成能力,讓自動駕駛能夠感知、思考和適應環境。

GTC大會上,理想釋出下一代自動駕駛架構MindVLA

MindVLA 不是簡單地將端到端模型和 VLM 模型結合在一起,所有模組都經過了全新設計。其中,3D 空間編碼器透過語言模型,和邏輯推理結合在一起後,給出合理的駕駛決策,並輸出一組 Action Token(動作詞元),Action Token 指的是對周圍環境和自車駕駛行為的編碼,並透過 Diffusion(擴散模型)進一步最佳化出最佳的駕駛軌跡,整個推理過程都要發生在車端,並且要做到實時執行。

MindVLA 的六大關鍵技術

MindVLA 打破了自動駕駛技術框架設計的傳統模式,使用能夠承載豐富語義,且具備出色多粒度、多尺度 3D 幾何表達能力的 3D 高斯(3D Gaussian)這一優良的中間表徵,充分利用海量資料進行自監督訓練,極大提升了下游任務效能。

GTC大會上,理想釋出下一代自動駕駛架構MindVLA

理想從零開始設計和訓練了適合 MindVLA 的 LLM 基座模型,採用 MoE 混合專家架構,引入 Sparse Attention(稀疏注意力),實現模型稀疏化,保證模型規模增長的同時,不降低端側的推理效率。在基座模型訓練過程中,理想加入大量 3D 資料,使模型具備 3D 空間理解和推理能力。為了進一步激發模型的空間智慧,理想加入了未來幀的預測生成和稠密深度的預測等訓練任務。

LLM 基座模型獲得 3D 空間智慧的同時,還需要進一步提升邏輯推理能力。理想訓練 LLM 基座模型學習人類的思考過程,讓快慢思考有機結合到同一模型中,並可以實現自主切換快思考和慢思考。為了把 NVIDIA Drive AGX 的效能發揮到極致,MindVLA 採取小詞表結合投機推理,以及創新性地應用並行解碼技術,進一步提升了實時推理的速度。至此,MindVLA 實現了模型引數規模與實時推理效能之間的平衡。

MindVLA 利用 Diffusion 將 Action Token 解碼成最佳化的軌跡,並透過自車行為生成和他車軌跡預測的聯合建模,提升在複雜交通環境中的博弈能力。同時 Diffusion 可以根據外部條件,例如風格指令,動態調整生成結果。為了解決 Diffusion 模型效率低的問題,MindVLA 採用 Ordinary Differential Equation(常微分方程)取樣器,實現了 2-3 步就能完成高質量軌跡的生成。

面對部分長尾場景,理想建立起人類偏好資料集,並且創新性地應用 RLHF(基於人類反饋的強化學習)微調模型的取樣過程,最終使 MindVLA 能夠學習和對齊人類駕駛行為,顯著提升安全下限。

GTC大會上,理想釋出下一代自動駕駛架構MindVLA

MindVLA 基於自研的重建 + 生成雲端統一世界模型,深度融合重建模型的三維場景還原能力與生成模型的新視角補全,以及未見視角預測能力,構建接近真實世界的模擬環境。源於世界模型的技術積累與充足計算資源的支撐,MindVLA 實現了基於模擬環境的大規模閉環強化學習,即真正意義上的從「錯誤中學習」。

過去一年,理想自動駕駛團隊完成了世界模型大量的工程最佳化,顯著提升了場景重建與生成的質量和效率,其中一項工作是將 3D GS 的訓練速度提升至 7 倍以上。

GTC大會上,理想釋出下一代自動駕駛架構MindVLA

理想透過創新性的預訓練和後訓練方法,讓 MindVLA 實現了卓越的泛化能力和湧現特性,其不僅在駕駛場景下表現優異,在室內環境也展示出了一定的適應性和延展性。

賦能汽車變為專職司機,重塑使用者體驗

MindVLA 將為使用者帶來全新的產品形態和產品體驗,有 MindVLA 賦能的汽車是聽得懂、看得見、找得到的專職司機。「聽得懂」是使用者可以透過語音指令改變車輛的路線和行為,例如使用者在陌生園區尋找超市,只需要透過理想同學對車輛說:「帶我去找超市」,車輛就能在沒有導航資訊的情況下自主漫遊找到目的地;車輛行駛過程中,使用者還可以跟理想同學說:「開太快了」、「應該走左邊這條路」等,MindVLA 能夠理解並執行這些指令。

GTC大會上,理想釋出下一代自動駕駛架構MindVLA

「看得見」是指 MindVLA 具備強大的通識能力,不僅能夠認識星巴克、肯德基等不同的商店招牌,當使用者在陌生地點找不到車輛時,可以拍一張附近環境的照片傳送給車輛,擁有 MindVLA 賦能的車輛能夠搜尋照片中的位置,並自動找到使用者。

「找得到」意味著車輛可以自主地在地庫、園區和公共道路上漫遊,其中典型應用場景是使用者在商場地庫找不到車位時,可以跟車輛說:「去找個車位停好」,車輛就會利用強大的空間推理能力自主尋找車位,即便遇到死衚衕,車輛也會自如地倒車,重新尋找合適的車位停下,整個過程不依賴地圖或導航資訊,完全依賴 MindVLA 的空間理解和邏輯推理能力。

總結來說,對於使用者而言,有 MindVLA 賦能的車不再只是一個駕駛工具,而是一個能與使用者溝通、理解使用者意圖的智慧體。理想表示,對於汽車行業而言,MindVLA 就像 iPhone 4 重新定義手機一樣將重新定義自動駕駛。對於人工智慧領域而言,汽車作為物理人工智慧的最佳載體,未來探索出物理世界和數字世界結合的正規化,將有望賦能多個行業協同發展。

相關文章