卷積塊注意模組 CBAM: Convolutional Block Attention Module
簡介
本文利用attention機制,使得針對網路有了更好的特徵表示,這種結構通過支路學習到通道間關係的權重和畫素間關係的權重,然後乘回到原特徵圖,使得特徵圖可以更好的表示。
Convolutional Block Attention Module
這裡的結構有點類似與SENet裡的支路結構。
對於Channel attention module,先將原feature map分別做global avg pooling 和global max pooling,然後將兩pooling後的向量分別連線一個FC層,之後point-wise相加。啟用。
這裡用global pooling的作用是捕捉全域性特徵,因為得到的權重描述的是通道間的關係,所以必須要全域性特徵才能學習到這種關係。
之所以avg pooling和max pooling一起用,是因為作者發現max pooling能夠捕捉特徵差異,avg pooling能捕捉一般資訊,兩者一起用的效果要比單獨用的實驗結果要好,。
結構如圖:
對於Spatial attention module,作者使用了1×1的pooling,與上面一樣,使用的是1×1的avg pooling和1×1的max pooling,而沒有用1×1卷積,兩者concat,緊接著是一層7×7卷積,然後啟用。最後輸出就是1×h×w。
結構如圖:
作者提到了兩者的順序,先做channel attention比先做spatial attention要好很多。
後面作者實驗了spatial attention module裡1×1conv、1×1pooling的效果,最後發現pooing的效果要比卷積的效果要好,因此上面的結構採用的是pooling而不是卷積結構。
後面就是一些結構了。
相關文章
- 卷積神經網路:Convolutional Neural Networks(CNN)卷積神經網路CNN
- 卷積神經網路(Convolutional Neural Network,CNN)卷積神經網路CNN
- 神經網路之卷積篇:詳解單層卷積網路(One layer of a convolutional network)神經網路卷積
- “卷積神經網路(Convolutional Neural Network,CNN)”之問卷積神經網路CNN
- Tied Block Convolution:一種共享filter的卷積形態BloCFilter卷積
- 深度學習之卷積神經網路(Convolutional Neural Networks, CNN)(二)深度學習卷積神經網路CNN
- 注意力機制在圖卷積中的應用卷積
- 5.2.1.1 卷積卷積
- 卷積核卷積
- 論文筆記:Diffusion-Convolutional Neural Networks (傳播-卷積神經網路)筆記卷積神經網路
- 數字訊號處理:線性卷積、迴圈卷積、圓周卷積計算卷積
- 卷積神經網路四種卷積型別卷積神經網路型別
- Attention Model(注意力模型)思想初探模型
- attention注意力機制學習
- 5.2.1.3 卷積層卷積
- 1*1卷積卷積
- 卷積步長卷積
- Python模組(module)Python
- 影像處理中的valid卷積與same卷積卷積
- 卷積神經網路:卷積層和池化層卷積神經網路
- IOS Block 塊用法iOSBloC
- 深度可分離卷積卷積
- 卷積自編碼卷積
- 2.0 卷積網路卷積
- 8.1 Attention(注意力機制)和TransformerORM
- Oracle Block Cleanouts 塊清除OracleBloC
- oracle壞塊Block CorruptionsOracleBloC
- Oracle資料塊blockOracleBloC
- 卷積神經網路中的Winograd快速卷積演算法卷積神經網路演算法
- 卷積神經網路卷積神經網路
- 狄利克雷卷積卷積
- 影象卷積與濾波卷積
- 卷積 隨筆備份卷積
- 前端模組化之ES Module前端
- js module bundle 模組捆綁JS
- Linux module(Linux 模組)Linux
- 注意力機制----RNN中的self-attentionRNN
- 【機器學習】李宏毅——自注意力機制(Self-attention)機器學習