THFuse: An infrared and visible image fusion network using transformer and hybrid feature extractor
一種基於Transformer和混合特徵提取器的紅外與可見光影像融合網路
研究背景:
- 現有的影像融合方法主要是基於卷積神經網路(CNN),由於CNN的感受野較小,很難對影像的長程依賴性進行建模,忽略了影像的長程相關性,導致融合網路不能生成具有良好互補性的影像,感受野的限制直接影響融合影像的質量。
研究方法:
- 考慮到transformer的全域性注意力機制,提出了一種結合CNN和vision transformer的端到端影像融合方法來解決上述問題。
整體框架
網路是一個端到端的架構,框架包括三個部分:卷積神經網路模組(CNN-module)、Vision Transformer模組(VIT-module)和影像重建模組。 前兩個模組稱為混合塊,即混合特徵提取器。
卷積神經網路模組(CNN-module):由細節分支和結構分支兩部分組成。
- 細節分支:四個卷積層,卷積層之間有密集的連線操作來提取影像的深層特徵。 輸入特徵數為16,每層卷積後的通道數為8、16、24、32。 每個卷積層的核大小為3 3,步幅為1。 為了保持特徵的大小不變,我們使用反射模式來填充影像。 細節將最終輸出一組大小為256x256的特徵,包含32個通道。
- 結構分支:三個卷積層。 每次卷積運算後,特徵的大小是前一步的一半,以達到下采樣的目的。 每個卷積層的核大小為3 x3,步幅為2。 輸入特徵的大小為256x256,通道數為16。 每次卷積運算後特徵的大小分別為128x128、64x64和32x32,特徵的通道數分別為32、64和32。 為了保證該分支的通道大小和數目與前一分支一致,這裡增加了一個雙線性上取樣層,輸出32個通道、大小為256x256的特徵。
Vision Transformer模組:有空間transformer和通道transformer兩部分組成。如下圖
- 空間transformer:將影像劃分成許多patch塊(每個通道都劃分patch塊,其中一個patch與所有通道的patch進行注意力操作),將每個patch拉成向量,patch塊之間進行注意力操作。
- 通道transformer:按照影像的通道進行劃分,將通道拉成向量,不同通道之間進行注意力操作。
影像重建模組: 因為前面影像的大小沒有進行下采樣,所以重建的時候不需要上取樣,只要把影像的通道維度降下來。影像重建器設定了四個卷積層,輸入特徵數為64個,每層卷積後的特徵通道數為64、32、16、8和1。 每個卷積層的核大小為3 3,步幅為1。 為了保持特徵的大小不變,我們使用反射模式來填充影像。
損失函式
損失函式由畫素損失和感知損失兩部分組成。
畫素損失:由三部分組成,其中LMSE是均方誤差(MSE)損失函式。LSSIM表示結構相似度(SSIM)損失函式。LTV表示總方差(TV)損失函式。
- LMSE是均方誤差(MSE)損失函式:對融合影像與源影像的每一點畫素求差值然後平方,最後平均。
- LSSIM表示結構相似度(SSIM)損失函式:融合影像與源影像的結構相似程度。
- LTV表示總方差(TV)損失函式:該函式是抑制噪聲和保留梯度資訊。 噪聲體現在影像中就是某一點梯度突變或者畫素強度突變。
p,q是影像某一點的座標,R(p,q)是融合影像與源影像之間的畫素強度差值,R(p+1,q)和R(p,q+1)是臨近點。透過約束融合影像這一點和臨近點的差值,來保留原影像的梯度資訊,並且抑制噪聲資訊。
畫素損失無法代替感知損失。 例如,兩個相距僅幾個畫素的相同影像,儘管在感知上相似,但當按每個畫素的損失來衡量時,可能會有很大的不同。或者畫素損失不大,但是影像感知差別很大。
我們透過兩個影像特徵圖中的語義資訊來判斷兩個影像的最後的感知,所以我們要從特徵圖入手,上面畫素損失沒有考慮到特徵圖的畫素的重要性。
感知損失:使用預訓練的VGG19網路去提取(融合影像,源影像)多尺度的特徵。主要是想用兩個特徵的語義資訊來確定兩個特徵的感知資訊,進而確定兩個影像的感知資訊。
融合影像和可見光影像的感知損失: 使用提取的相對淺層特徵(第一層)進行計算,由於淺層特徵包含較多的結構資訊和細節資訊。
計算融合影像與紅外影像的感知損失: 使用深層次的特徵(第四層)來計算。因為紅外影像中由更多的顯著特徵,語義資訊。
結論
提出了一種基於VIT和卷積神經網路的紅外與可見光影像融合方法。 由於我們的網路是端到端的型別,所以不需要對融合結果進行後期處理。 混合塊整合了CNN-模組和VIT-模組,雙分支CNN-模組具有更強的特徵提取能力。 VIT-module的加入使網路能夠同時考慮影像的區域性資訊和全域性資訊,避免了傳統CNN網路遠端依賴性差的問題。 另外,我們利用預訓練的VGG19網路提取不同的特徵來計算損失,有針對性地保留不同型別的影像資訊。
影像融合的最終目的是與其他計算機視覺任務相結合並使之更好,因此我們接下來將嘗試在其他計算機視覺任務的驅動下利用影像融合來改善原有的結果。
雖然本文的重點是紅外和可見光影像融合,但本文提出的網路可以用於其他影像融合領域。 今後我們將嘗試將該方法應用於多曝光和醫學影像融合。
貢獻點
-
提出了一種混合特徵提取器,將雙分支CNN和VIT相結合,實現了影像區域性資訊和全域性資訊的同時提取。
-
對VIT的網路結構進行了改進,使其更適合於影像融合。 另外,將transfomer使用在影像的通道維度上。
-
設計了一個有針對性的感知損失函式。 透過計算不同深度特徵的損失,融合影像可以保留更多的紋理細節和顯著資訊。