AIxiv專欄是機器之心釋出學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報導了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯絡報導。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
本文作者來自於中國人民大學,深圳朝聞道科技有限公司以及中國電信人工智慧研究院。其中第一作者馮若軒為中國人民大學二年級碩士生,主要研究方向為多模態具身智慧,師從胡迪教授。
引言:在機器人操縱物體的過程中,不同感測器資料攜帶的噪聲會對預測控制造成怎樣的影響?中國人民大學高瓴人工智慧學院 GeWu 實驗室、朝聞道機器人和 TeleAI 最近的合作研究揭示並指出了 “模態時變性”(Modality Temporality)現象,透過捕捉並刻畫各個模態質量隨物體操縱過程的變化,提升不同資訊在具身多模態互動的感知質量,可顯著改善精細物體操縱的表現。論文已被 CoRL2024 接收並選為 Oral Presentation。
人類在與環境互動時展現出了令人驚歎的感官協調能力。以一位廚師為例,他不僅能夠憑藉直覺掌握食材新增的最佳時機,還能透過觀察食物的顏色變化、傾聽烹飪過程中的聲音以及嗅聞食物的香氣來精準調控火候,從而無縫地完成烹飪過程中的每一個複雜階段。這種能力,即在執行復雜且長時間的操作任務時,靈活運用不同的感官,是建立在對任務各個階段全面而深刻理解的基礎之上的。然而,對於機器人而言,如何協調這些感官模態以更高效地完成指定的操作任務,以及如何充分利用多模態感知能力來實現可泛化的任務執行,仍是當前尚未解決的問題。我們不僅需要使模型理解任務階段本身,還需要從任務階段的新角度重新審視多感測器融合。在一個複雜的操縱任務中完成將任務劃分為不同階段的一系列子目標的過程中,各個模態的資料質量很可能隨任務階段而不斷變化。因此,階段轉換很可能導致模態重要性的變化。除此之外,每個階段內部也可能存在相對較小的模態質量變化。我們將這種現象總結為多感測器模仿學習的一大挑戰:模態時變性(Modality Temporality)。然而,過去的方法很少關注這一點,忽視了階段理解在多感測器融合中的重要性。本文借鑑人類的基於階段理解的多感官感知過程,提出了一個由階段引導的動態多感測器融合框架 MS-Bot,旨在基於由粗到細粒度的任務階段理解動態地關注具有更高質量的模態資料,從而更好地應對模態時變性的挑戰,完成需要多種感測器的精細操縱任務。- 論文連結:https://arxiv.org/abs/2408.01366v2
- 專案主頁:https://gewu-lab.github.io/MS-Bot/
在複雜的操作任務中,各感測器資料的質量可能會隨著階段的變化而變化。在不同的任務階段中,一個特定模態的資料可能對動作的預測具有重大貢獻,也可能作為主要模態的補充,甚至可能幾乎不提供任何有用的資訊。以上圖中的傾倒任務為例,在初始的對齊階段中,視覺模態對動作的預測起決定性作用。進入開始傾倒階段後,模型需要開始利用音訊和觸覺的反饋來確定合適的傾倒角度(倒出速度)。在保持靜止階段,模型主要依賴音訊和觸覺資訊來判斷已經倒出的小鋼珠質量是否已經接近目標值,而視覺幾乎不提供有用的資訊。最後,在結束傾倒階段,模型需要利用觸覺模態的資訊判斷傾倒任務是否已經完成,與開始傾倒階段進行區分。除階段間的模態質量變化,各個階段內部也可能存在較小的質量變化,例如音訊模態在開始傾倒和結束傾倒的前期和後期具有不同的重要性。我們將這兩種變化區分為粗粒度和細粒度的模態質量變化,並將這種現象總結為多感測器模仿學習中的一個重要挑戰:模態時變性。為了應對模態時變性的挑戰,我們認為在機器人操縱任務中,多感測器資料的融合應該建立在充分的任務階段理解之上。因此,我們提出了 MS-Bot 框架,這是一個由階段引導的動態多感測器融合方法,旨在基於顯式的由粗到細的任務階段理解動態地關注具有更高質量的模態資料。為了將顯式的階段理解整合到模仿學習過程中,我們首先為每個資料集中的樣本新增了一個階段標籤,並將動作標籤和階段標籤共同作為監督訊號訓練包含四個模組的 MS-Bot 框架(如圖 2 所示):- 特徵提取模組:該模組包含一系列單模態編碼器,每個編碼器都接受一段簡短的單模態觀測歷史作為輸入,並將它們編碼為特徵。
- 狀態編碼器:該模組旨在將各模態特徵和動作歷史序列編碼為表示當前任務狀態的 token。動作歷史與人類記憶相似,可以幫助指示當前所處的任務狀態。我們將動作歷史輸入到一個 LSTM 中,並透過一個 MLP 將它們與模態特徵編碼為狀態 token。
- 階段理解模組:該模組旨在透過將階段資訊注入狀態 token 中,從而實現顯式的由粗到細粒度的任務階段理解。我們用一組可學習的階段 token 來表示每個任務階段,並透過一個門控網路(MLP)來預測當前所處的階段,利用 Softmax 歸一化後的階段預測分數對階段 token 進行加權融合,得到當前階段 token。門控網路的訓練以階段標籤作為監督訊號,對非當前階段的預測分數進行懲罰。我們還放鬆了對階段邊界附近的樣本上的相鄰階段分數懲罰,從而實現軟約束效果,得到更平滑的階段預測。新的注入階段資訊後的狀態 token 由原狀態 token 和階段 token 加權融合得到,可以表示任務階段內的細粒度狀態,從而對多感測器動態融合進行引導。
- 動態融合模組:該模組根據當前任務階段的細粒度狀態動態地選擇關注的模態特徵。我們以注入了階段資訊的狀態 token 作為 Query,將模態特徵作為 Key 和 Value 進行交叉注意力(Cross Attention)。該方法根據當前任務階段的需求,將各模態的特徵動態地整合到一個融合 token 中。最後,該融合 token 輸入到策略網路(MLP)中預測下一個動作。我們還引入了隨機注意力模糊機制,以一定機率將各單模態特徵 token 上的注意力分數替換為相同的平均值,防止模型簡單地記憶與注意力分數模式對應的動作。
圖 2 由階段引導的動態多感測器融合框架 MS-Bot為了驗證基於由粗到細的任務階段理解的 MS-Bot 的優越性,我們在兩個十分有挑戰性的精細機器人操縱任務:傾倒和帶有鍵槽的樁插入中進行了詳細的對比。如表 1 所示,MS-Bot 在兩個任務的所有設定上均優於所有基線方法。MS-Bot 在兩個任務中的效能超過了使用自注意力(Self Attention)進行動態融合的 MULSA 基線,這表明 MS-Bot 透過在融合過程中基於對當前階段的細粒度狀態的理解更好地分配模態權重,而沒有顯示階段理解的 MULSA 基線無法充分利用動態融合的優勢。我們還對任務完成中各個模態的注意力分數和各階段的預測分數進行了視覺化。在每個時間步,我們分別對每種模態的所有特徵 token 的注意力分數進行平均,而階段預測分數是 Softmax 歸一化後的門控網路輸出。如圖 4 所示,MS-Bot 準確地預測了任務階段的變化,並且得益於模型中由粗到細粒度的任務階段理解,三個模態的注意力分數保持相對穩定,表現出明顯的階段間變化和較小的階段內調整。為了驗證 MS-Bot 對干擾物的泛化能力,我們在兩個任務中都加入了視覺干擾物。在傾倒任務中,我們將量筒的顏色從白色更改為紅色。對於樁插入任務,我們將底座顏色從黑色更改為綠色(“Color”),並在底座周圍放置雜物(“Mess”)。如表 2 所示,MS-Bot 在各種有干擾物的場景中始終保持效能優勢,這是因為 MS-Bot 根據對當前任務階段的理解動態地分配模態權重,從而減少視覺噪聲對融合特徵的影響,而基線方法缺乏理解任務階段並動態調整模態權重的能力。本文從任務階段的視角重新審視了機器人操縱任務中的多感測器融合,引入模態時變性的挑戰,並將由子目標劃分的任務階段融入到模仿學習過程中。該研究提出了 MS-Bot,一種由階段引導的多感測器融合方法,基於由粗到細粒度的階段理解動態地關注質量更高的模態。我們相信由顯式階段理解引導的多感測器融合會成為一種有效的多感測器機器人感知正規化,並藉此希望能夠激勵更多的多感測器機器人操縱的相關研究。