CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

CV技术指南(公众号)發表於2024-05-27
前言 第一個以「泛化」能力為核心設計原則的可學習影像匹配器來了!

歡迎關注公眾號CV技術指南,專注於計算機視覺的技術總結、最新技術跟蹤、經典論文解讀、CV招聘資訊。

本文轉載自機器之心

僅用於學術分享,若侵權請聯絡刪除

CV方向的準研究生們,未來三年如何度過?

招聘高光譜影像、語義分割、diffusion等方向論文指導老師

最近,研究社群又提出了新穎的可學習影像匹配器,在傳統基準上實現了效能的不斷改進。儘管已經取得了長足的進步,但這些進展忽略了一個重要方面:影像匹配模型的泛化能力。如今,大多數區域性特徵匹配研究都集中在具有豐富訓練資料的特定視覺領域(如室外和室內場景),這就導致了模型高度專用於訓練領域。遺憾的是,這些方法的效能在域外資料(如以物件為中心或空中捕獲)上通常急劇下降,在某些情況下甚至可能並不比傳統方法好很多。因此,傳統的域無關技術(如 SIFT)仍被廣泛用於獲取下游應用的姿態。並且由於收集高質量註釋的成本很高,在每個影像域都有豐富的訓練資料是不現實的,就像其他一些視覺任務一樣。因此,社群應該專注於開發架構改進,使得可學習的匹配方法具有泛化能力。近日,受上述觀察的啟發,德克薩斯大學奧斯汀分校和谷歌研究院的研究者聯合提出了 OmniGlue,這是第一個以泛化為核心原則設計的可學習影像匹配器。在與域無關的區域性特徵基礎上,他們引入了用於提高匹配層泛化效能的新技術:基礎模型指導和關鍵點位置注意力指導。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作
  • 論文地址:
  • 專案主頁:

如圖 1 所示,透過引入的技術,OmniGlue 能夠在分佈外領域上實現更好泛化效能,同時保持源領域上的高質效能。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

研究者首先整合了基礎模型的廣泛視覺知識。透過對大規模資料進行訓練,基礎視覺模型 DINOv2 在各種影像域中的各種任務(包括穩健的區域級匹配)中表現良好。儘管基礎模型所產生匹配結果的粒度有限,但當專門的匹配器無法處理域位移時,這些模型可以為潛在的匹配區域提供可泛化的指導。因此,他們使用 DINO 來指導影像間特徵傳播過程,降低不相關的關鍵點並鼓勵模型融合來自潛在可匹配區域的資訊。接著利用關鍵點位置資訊來指導資訊傳播過程。研究者發現,當模型應用於不同領域時,以往的位置編碼策略會損害效能。這促使他們與用於估計對應關係的匹配描述符區分開來。研究者提出了一種新穎的關鍵點位置指導注意力機制,從而避免過於專注關鍵點的訓練分佈和相對姿態變換。透過實驗,研究者評估了 OmniGlue 在各種視覺領域的泛化能力,包括合成影像和真實影像,從場景級到以物件為中心和空中資料集,期間使用小基線和寬基線相機。與以往工作相比,OmniGlue 展示出顯著的改進。方法概覽下圖 2 概述了 OmniGlue 方法,主要包括以下四個階段。首先,研究者使用兩種互補型別的編碼器提取影像特徵,包括了專注於通用細粒度匹配的 SuperPoint 以及對粗略但廣泛的視覺知識進行編碼的視覺基礎模型 DINOv2。其次,研究者使用這些特徵構建關鍵點關聯圖,包括影像內和影像間。第三,研究者基於構建的圖在兩張影像中的關鍵點之間傳播資訊,分別使用自注意力層和交叉注意力層進行影像內和影像間通訊。最後,一旦獲得改進後的描述符,研究者應用最佳匹配層來生成兩張影像中關鍵點之間的對映。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

在具體細節上,OmniGlue 方法主要包含以下幾步。特徵提取。輸入是兩張具有共享內容的影像,表示為 I_A 和 I_B。研究者將這兩張影像的 SuperPoint 關鍵點集表示為 A := {A_1, ..., A_N } 和 B := {B_1, ..., B_M}。N 和 M 分別是 I_A 和 I_B 的已識別關鍵點的數量。每個關鍵點都與其 SuperPoint 區域性描述符 d ∈ R^C 相關聯。利用 DINOv2 構建圖形。研究者利用 DINOv2 特徵來指導影像間圖形的構建。如下圖 3(左)所示,他們以 G_B→A_i 為例。對於關鍵點集合 A 中的每個關鍵點 A_i,研究者計算其與集合 B 中所有關鍵點的 DINOv2 特徵相似度。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

具有新穎指導的資訊傳播。研究者根據關鍵點圖執行資訊傳播,這一模組包含了多個塊,每個塊都有兩個注意力層。第一個基於影像內圖更新關鍵點,執行自注意力;第二個基於影像間圖更新關鍵點,執行交叉注意力。匹配層和損失函式。使用改進的關鍵點表示來生成成對相似度矩陣:

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

對比 SuperGlue 和 LightGlueSuperGlue 和 LightGlue 都使用注意力層進行資訊傳播。不同的是,OmniGlue 利用基礎模型來指導這個過程,這對遷移到訓練期間未觀察到的影像域有很大幫助。在區域性描述符改進方面,與 SuperGlue 不同,OmniGlue 解耦了位置和外觀特徵。作為參考,SuperGlue 將關鍵點表示為 d + p,將兩個特徵糾纏在一起,其中位置特徵也用於產生匹配結果。與 OmniGlue 的設計類似,LightGlue 消除了更新的描述符對位置特徵的依賴,但提出了一種非常具體的位置編碼公式,基於旋轉編碼,並且僅在自注意力層中。總之,SuperGlue 是最接近 OmniGlue 的模型,可作為直接對比的參考。也因此,研究者使用 SuperGlue 作為實驗驗證的主要參考比較。實驗結果研究者在下表 1 中列出了用於評估 OmniGlue 的資料集和任務。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

從 Synthetic Homography(SH)到 MegaDepth(MD)資料集,如下表 2 所示,與基礎方法 SuperGlue 相比,OmniGlue 不僅在領域內資料上表現出優異的效能,而且還表現出強大的泛化能力。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

從 MegaDepth(MD)到其他領域,如下表 3 所示,OmniGlue 不僅在 MegaDepth-1500 上實現了與 SOTA 稀疏匹配器 LightGlue 相當的效能,而且與所有其他方法相比,在 6 個新領域中的 5 個領域中表現出更好的泛化能力。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

研究者在下圖 5 和圖 4 中分別展示了新領域上的零樣本泛化效能以及在源領域上的效能。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

最後如下表 4 所示,OmniGlue 更容易適應目標領域。

CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作

更多技術細節和實驗結果請參閱原論文。

歡迎關注公眾號CV技術指南,專注於計算機視覺的技術總結、最新技術跟蹤、經典論文解讀、CV招聘資訊。

計算機視覺入門1v3輔導班

【技術文件】《從零搭建pytorch模型教程》122頁PDF下載

QQ交流群:470899183。群內有大佬負責解答大家的日常學習、科研、程式碼問題。

其它文章

分享一個CV知識庫,上千篇文章、專欄,CV所有資料都在這了

明年畢業,還不知道怎麼做畢設的請抓緊機會了

LSKA注意力 | 重新思考和設計大卷積核注意力,效能優於ConvNeXt、SWin、RepLKNet以及VAN

CVPR 2023 | TinyMIM:微軟亞洲研究院用知識蒸餾改進小型ViT

ICCV2023|漲點神器!目標檢測蒸餾學習新方法,浙大、海康威視等提出

ICCV 2023 Oral | 突破性影像融合與分割研究:全時多模態基準與多互動特徵學習

聽我說,Transformer它就是個支援向量機

HDRUNet | 深圳先進院董超團隊提出帶降噪與反量化功能的單幀HDR重建演算法

南科大提出ORCTrack | 解決DeepSORT等跟蹤方法的遮擋問題,即插即用真的很香

1800億引數,世界頂級開源大模型Falcon官宣!碾壓LLaMA 2,效能直逼GPT-4

SAM-Med2D:打破自然影像與醫學影像的領域鴻溝,醫療版 SAM 開源了!

GhostSR|針對影像超分的特徵冗餘,華為諾亞&北大聯合提出GhostSR

Meta推出畫素級動作追蹤模型,簡易版線上可玩 | GitHub 1.4K星

CSUNet | 完美縫合Transformer和CNN,效能達到UNet家族的巔峰!

AI最全資料彙總 | 基礎入門、技術前沿、工業應用、部署框架、實戰教程學習

計算機視覺入門1v3輔導班

計算機視覺交流群

相關文章