機器人版的「史丹佛小鎮」來了,專為具身智慧研究打造

机器之心發表於2024-07-22

首個專為各種機器人設計的模擬互動 3D 社會。

還記得史丹佛的 AI 小鎮嗎?這是史丹佛的 AI 研究者打造的一個虛擬環境。在這個小鎮上,25 個 AI 智慧體正常生活、工作、社交,甚至談戀愛,每個智慧體都有自己的個性和背景故事。智慧體的行為和記憶透過大語言模型來驅動,這些模型能夠儲存和檢索智慧體的經歷,並根據這些記憶來規劃行動。(參見《史丹佛的「虛擬小鎮」開源了:25 個 AI 智慧體照進《西部世界》》)

圖片

與之類似,最近,來自上海人工智慧實驗室 OpenRobotLab 等機構的一批研究者也打造了一個虛擬小鎮。不過,生活在其中的是機器人和 NPC。機器人版的「史丹佛小鎮」來了,專為具身智慧研究打造這個小鎮包含 10 萬個互動式場景和 89 種不同的場景類別,是首個專為各種機器人設計的模擬互動 3D 社會。

圖片

作者表示,他們設計這個環境是為了解決具身智慧領域的資料稀缺問題。眾所周知,由於收集真實世界資料的成本過高,在具身智慧領域探索 scaling law 一直困難重重。因此,從模擬到真實(Sim2Real)的正規化成了擴充套件具身模型學習的關鍵一步。

他們為機器人設計的這個虛擬環境名叫 GRUtopia,專案主要包括:

1、場景資料集 GRScenes。包含 10 萬個互動式、精細註釋的場景,可自由組合成城市規模的環境。與以往主要關注家庭的工作不同,GRScenes 涵蓋了 89 種不同的場景類別,彌補了服務型環境的空白(一般機器人最初會部署在服務型環境中)。

2、GRResidents。這是一個大型語言模型(LLM)驅動的非玩家角色(NPC)系統,負責社互動動、任務生成和任務分配,從而模擬具身 AI 應用的社交場景。

3、基準 GRBench。支援各種機器人,但側重於作為主要智慧體的有腿機器人,並提出了涉及物體定位導航、社交定位導航和定位操縱的中等難度任務。

作者希望這項工作能緩解該領域高質量資料稀缺的問題,併為具身 AI 研究提供更全面的評估。

圖片

  • 論文標題:GRUtopia: Dream General Robots in a City at Scale

  • 論文地址:https://arxiv.org/pdf/2407.10943

  • 專案地址:https://github.com/OpenRobotLab/GRUtopia

GRScenes:大規模的完全互動環境

要建立一個用於訓練和評估具身智慧體的平臺,具有不同場景和物體資產的完全互動式環境是必不可少的。因此,作者收集了一個包含各種物體資產的大規模 3D 合成場景資料集,作為 GRUtopia 平臺的基礎。

多樣、逼真的場景

由於開源 3D 場景資料的數量和類別有限,作者首先從設計師網站上收集了約 10 萬個高質量的合成場景,從而獲得多樣化的場景原型。然後,他們對這些場景原型進行清理,並對其進行區域和物體級別的語義註釋,最後將它們組合在一起,形成城鎮,作為機器人的基本遊樂場。

如圖 2-(a) 所示,除了常見的家庭場景外,作者構建的資料集中還有 30% 的其他不同類別的場景,如餐廳、辦公室、公共場所、酒店、娛樂等。作者從大規模資料集中初步篩選出 100 個帶有精細註釋的場景,用於開源基準測試。這 100 個場景包括 70 個家庭場景和 30 個商業場景,其中家庭場景由綜合性常見區域和其他不同區域組成,商業場景涵蓋醫院、超市、餐廳、學校、圖書館和辦公室等常見型別。

圖片

此外,作者還與幾位專業設計師合作,按照人類的生活習慣來分配物體,使這些場景更加逼真,如圖 1 所示,而這在以前的作品中通常是被忽略的。

具有部件(part)級註釋的互動式物體

這些場景原本包含多個 3D 物體,但其中一些沒有內部建模,因此無法訓練機器人與這些物體進行互動。為了解決這個問題,作者與專業團隊合作,對這些資產進行修改,並建立完整的物體,使它們能夠以物理上可信的方式進行互動。此外,為了提供更全面的資訊,使智慧體能夠與這些資產進行互動,作者在英偉達 Omniverse 中以 X 形式為所有物體的互動部件附加了細粒度部件標籤。最後,100 個場景包含 96 個類別的 2956 個互動式物體和 22001 個非互動式物體,其分佈情況如圖 2-(b) 所示。

圖片

分層多模態註釋

最後,為了實現具身智慧體與環境以及 NPC 的多模態互動,還需要對這些場景和物件進行語言註釋。與之前的多模態 3D 場景資料集只關注物件層面或物件間關係不同,作者還考慮了場景元素的不同粒度,如物件與區域的關係。鑑於缺乏區域標籤,作者首先設計了一個使用者介面,在場景鳥瞰圖上用多邊形註釋區域,然後可以在語言註釋中涉及物件 - 區域關係。對於每個物件,他們都會用渲染的多檢視影像提示功能強大的 VLM(如 GPT-4v),以初始化註釋,然後由人工進行檢查。由此產生的語言註釋為後續基準測試生成具身任務提供了基礎。

GRResidents3D 環境中的生成式 NPC

在 GRUtopia 中,作者透過嵌入一些「居民」(即由 LLM 驅動的生成式 NPC)來賦予世界以社交能力,從而模擬城市環境中的社會互動。這個 NPC 系統被命名為 GRResidents。在 3D 場景中構建真實虛擬角色的主要挑戰之一是整合 3D 感知能力。然而,虛擬角色可以輕鬆訪問場景註釋和模擬世界的內部狀態,從而實現強大的感知能力。為此,作者設計了一個世界知識管理器(WKM),用於管理實時世界狀態的動態知識,並透過一系列資料介面提供訪問。藉助 WKM,NPC 可以檢索所需的知識,並透過引數化函式呼叫執行細粒度的物件 grounding,這構成了其感知能力的核心。

世界知識管理器(WKM)

WKM 的主要職責是持續管理虛擬環境知識,並向 NPC 提供高階場景知識。具體來說,WKM 分別從資料集和模擬器後臺獲取分層註釋和場景知識,構建場景圖作為場景表示,其中每個節點表示一個物件例項,邊表示物件之間的空間關係。作者採用 Sr3D 中定義的空間關係作為關係空間。WKM 會在每個模擬步驟中保留該場景圖。此外,WKM 還提供了三個核心資料介面,用於從場景圖中提取知識:

1、find_diff (target, objects):比較目標物件與一組其他物件之間的差異;

2、get_info (object, type):根據所需的屬性型別獲取物件的知識;

3、filter (objects, condition)::根據條件過濾物件。

LLM 規劃

NPC 的決策模組是一個基於 LLM 的規劃器,由三個部分組成(圖 3):一個儲存模組,用於儲存 NPC 與其他智慧體之間的聊天曆史記錄;一個 LLM 程式設計師,使用 WKM 的介面來查詢場景知識;以及一個 LLM 發言器,用於消化聊天曆史記錄和查詢到的知識,從而生成回覆。當一個 NPC 收到一條資訊時,它會首先將資訊儲存在記憶體中,然後將更新的歷史記錄轉發給 LLM 程式設計師。然後,程式設計師會反覆呼叫資料介面來查詢必要的場景知識。最後,將知識和歷史記錄傳送給 LLM 發言器,由其生成響應。

圖片

實驗

作者進行了物件指代、語言 grounding 和以物件為中心的 QA 等方面的實驗,以證明論文中的 NPC 能夠生成物件說明,透過描述定位物件,以及為智慧體提供物件資訊。這些實驗中的 NPC 後端 LLM 包括 GPT-4o、InternLM2-Chat-20B 和 Llama-3-70BInstruct。

如圖 4 所示,在指代實驗中,作者採用了 human-in-the-loop 評估。NPC 隨機選擇一個物件並對其進行描述,然後人類註釋者根據描述選擇一個物件。如果人類註釋者能找到與描述相對應的正確物件,則指代成功。在 grounding 實驗中,GPT-4o 扮演了人類註釋者的角色,它提供了一個物體的描述,然後由 NPC 對其進行定位。如果 NPC 能夠找到相應的物體,則 grounding 成功。

圖片

表 2 中的成功率(指代和 grounding)顯示,不同 LLM 的準確率分別為 95.9%-100% 和 83.3%-93.2% ,這驗證了我們的 NPC 框架在不同 LLM 中指代和接地的準確性。

在以物件為中心的 QA 實驗中,作者評估了 NPC 在導航任務中透過回答問題向智慧體提供物件級資訊的能力。他們設計了一個 pipeline 來生成以物件為中心的導航情節,模擬真實世界的場景。在這些場景中,智慧體向 NPC 提問以獲取資訊,並根據回答採取行動。給定智慧體問題後,作者根據 NPC 的答案與真實答案之間的語義相似性對其進行評估。表 2(QA)中顯示的總體得分表明,NPC 可以提供精確而有用的導航幫助。

GRBench:一個評估具身智慧體的基準

GRBench 是評估機器人智慧體能力的綜合評估工具。為了評估機器人智慧體處理日常任務的能力,GRBench 包括三個基準:物體定位導航、社交定位導航和定位操作。這些基準的難度逐漸增加,對機器人技能的要求也隨之提高。

由於腿式機器人具有卓越的跨地形能力,作者優先考慮將其作為主要智慧體。然而,在大規模場景中,要同時執行高階感知規劃和低階控制並取得令人滿意的結果,對當前的演算法來說具有挑戰性。

GRBench 的最新進展證明了在模擬中針對單項技能訓練高精度策略的可行性,受此啟發,GRBench 的初始版本將重點放在高階任務上,並提供基於學習的控制策略作為 API,如行走和拾放。因此,他們的基準提供了更真實的物理環境,縮小了模擬與真實世界之間的差距。

下圖是 GRBench 的一些任務示例。

圖片

下圖是基準智慧體的概覽。grounding 模組 (a) 將原始感官資料處理成語義豐富的資訊,記憶模組(b)儲存行動觀察歷史等歷史資訊。決策模組(c)由 VLM 或 LLM 組成,根據(a)和(b)的資訊做出行動決策,而行動模組(d)則執行輸出的行動。環境模擬行動帶來的物理變化,併產生感官資料。智慧體可以選擇向顧問 NPC 詢問有關任務的進一步指示。

圖片

定量評估結果

作者在三個基準測試中對不同大型模型後端下的大型模型驅動智慧體框架進行了比較分析。如表 4 所示,他們發現隨機策略的效能接近於 0,這表明他們的任務並不簡單。當使用相對較優的大型模型作為後端時,他們在所有三個基準測試中都觀察到了明顯更好的整體效能。值得一提的是,他們觀察到 Qwen 在對話中的表現優於 GPT-4o(見表 5)。

圖片

圖片

此外,與直接使用多模態大模型進行決策相比,本文提出的智慧體框架表現出明顯的優越性。這表明,即使是目前最先進的多模態大型模型,在現實世界的具身任務中也缺乏強大的泛化能力。不過,本文的方法也有相當大的改進空間。這表明,當引入更接近真實世界的任務設定時,即使是像導航這樣已經研究多年的任務,仍然遠未完全解決。

定性評估結果

圖 7 展示了 LLM 智慧體在「社會定位導航」(Social Loco-Navigation)任務中執行的一個小片段,以說明智慧體如何與 NPC 互動。該智慧體最多可與 NPC 對話三次,以查詢更多工資訊。在 t = 240 時,智慧體導航到一把椅子前,詢問 NPC 這把椅子是否是目標椅子。然後,NPC 提供有關目標的周邊資訊,以減少模糊性。在 NPC 的協助下,智慧體透過類似人類行為的互動過程成功識別了目標椅子。這表明,本文中的 NPC 能夠為研究人與機器人的互動和協作提供自然的社會互動。

圖片

相關文章