AIxiv專欄是機器之心釋出學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報導了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯絡報導。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
如何突破 Transformer 的 Attention 機制?中國科學院大學與鵬城國家實驗室提出基於熱傳導的視覺表徵模型 vHeat。將圖片特徵塊視為熱源,並透過預測熱傳導率、以物理學熱傳導原理提取影像特徵。相比於基於Attention機制的視覺模型, vHeat 同時兼顧了:計算複雜度(1.5次方)、全域性感受野、物理可解釋性。
vHeat-base 模型在高解析度影像輸入時,throughput、GPU 視訊記憶體佔用、flops 分別是 Swin-base 模型的3倍、1/4、3/4,在影像分類、目標檢測、語義/例項分割等基礎下游任務上達到了先進的效能表現。
論文地址: https://arxiv.org/pdf/2405.16555
程式碼地址: https://github.com/MzeroMiko/vHeat
論文標題:vHeat: Building Vision Models upon Heat Conduction
Overview
CNN 和視覺 Transformer(ViT)是當前最主流的兩類基礎視覺模型。然而,CNN的效能表現受限於區域性感受野和固定的卷積核運算元。ViT 具有全域性依賴關係的表徵能力,然而代價是高昂的二次方級別計算複雜度。我們認為 CNN 和 ViT 的卷積運算元和自注意力運算元都是特徵內部的畫素傳播過程,分別是一種資訊傳遞的形式,這也讓我們聯想到了物理領域的熱傳導。於是我們根據熱傳導方程,將視覺語義的空間傳播和物理熱傳導建立聯絡,提出了一種 1.5 次方計算複雜度的視覺熱傳導運算元(Heat Conduction Operator, HCO),進而設計出了一種兼具低複雜度、全域性感受野、物理可解釋性的視覺表徵模型 vHeat。HCO 與 self-attention 的計算形式和複雜度對比如下圖所示。實驗證明了 vHeat 在各種視覺任務中表現優秀。例如 vHeat-T 在 ImageNet-1K 上達到 82.2% 的分類準確率,比 Swin-T 高 0.9%,比 Vim-S 高1.7%。效能之外,vHeat 還擁有高推理速度、低 GPU 視訊記憶體佔用和低 FLOPs 這些優點。在輸入影像解析度較高時,base 規模的 vHeat 模型相比於 Swin 達到 3 倍吞吐量、1/4 的GPU視訊記憶體佔用和 3/4 的 FLOPs。
方法介紹
用表示點在 t 時刻下的溫度, 物理熱傳導方程為,其中 k>0,表示熱擴散率。給定 t=0 時刻下的初始條件,該熱傳導方程可以採用傅立葉變換求得通解,表示如下:
其中和分別表示傅立葉變換和逆傅立葉變換, 表示頻域空間座標。
我們利用 HCO 來實現視覺語義中的熱傳導,先將物理熱傳導方程中的擴充套件為多通道特徵,將視為輸入,視為輸出,HCO 模擬了離散化形式的熱傳導通解,如下公式所示:
其中和分別表示二維離散餘弦變換和逆變換,HCO 的結構如下圖 (a) 所示。
此外,我們認為不同影像內容應該對應不同的熱擴散率,考慮到的輸出在頻域中,我們根據頻率值來決定熱擴散率,。由於頻域中不同位置表示了不同的頻率值,我們提出了頻率值編碼(Frequency Value Embeddings, FVEs)來表示頻率值資訊,與 ViT 中的絕對位置編碼的實現和作用類似,並用 FVEs 對熱擴散率 k 進行預測,使得 HCO 可以進行非均勻、自適應的傳導,如下圖所示。
vHeat 採用多層級的結構實現,如下圖所示,整體框架與主流的視覺模型類似,其中的 HCO layer 如圖 2 (b) 所示。
實驗結果
ImageNet分類
vHeat-T 取得了 82.2% 的效能,超過 DeiT-S 達 2.4%、Vim-S 達 1.7%、Swin-T 達 0.9%。 vHeat-S 取得了 83.6% 的效能,超過 Swin-S 達 0.6%、ConvNeXt-S 達 0.5%。 vHeat-B 取得了 83.9% 的效能,超過 DeiT-B 達 2.1%、Swin-B 達 0.4%。
下游任務
在 COCO 資料集上, vHeat 也擁有效能優勢:在 fine-tune 12 epochs 的情況下,vHeat-T/S/B 分別達到 45.1/46.8/47.7 mAP,超過了 Swin-T/S/B 達 2.4/2.0/0.8 mAP,超過 ConvNeXt-T/S/B 達 0.9/1.4/0.7 mAP。在 ADE20K 資料集上,vHeat-T/S/B 分別達到 46.9/49.0/49.6 mIoU,相比於 Swin 和 ConvNeXt 依然擁有更好的效能表現。這些結果驗證了 vHeat 在視覺下游實驗中完全 work,展示出了能平替主流基礎視覺模型的潛力。
分析實驗
有效感受野