卷積塊注意模組 CBAM: Convolutional Block Attention Module
簡介
本文利用attention機制,使得針對網路有了更好的特徵表示,這種結構通過支路學習到通道間關係的權重和畫素間關係的權重,然後乘回到原特徵圖,使得特徵圖可以更好的表示。
Convolutional Block Attention Module
這裡的結構有點類似與SENet裡的支路結構。
對於Channel attention module,先將原feature map分別做global avg pooling 和global max pooling,然後將兩pooling後的向量分別連線一個FC層,之後point-wise相加。啟用。
這裡用global pooling的作用是捕捉全域性特徵,因為得到的權重描述的是通道間的關係,所以必須要全域性特徵才能學習到這種關係。
之所以avg pooling和max pooling一起用,是因為作者發現max pooling能夠捕捉特徵差異,avg pooling能捕捉一般資訊,兩者一起用的效果要比單獨用的實驗結果要好,。
結構如圖:
對於Spatial attention module,作者使用了1×1的pooling,與上面一樣,使用的是1×1的avg pooling和1×1的max pooling,而沒有用1×1卷積,兩者concat,緊接著是一層7×7卷積,然後啟用。最後輸出就是1×h×w。
結構如圖:
作者提到了兩者的順序,先做channel attention比先做spatial attention要好很多。
後面作者實驗了spatial attention module裡1×1conv、1×1pooling的效果,最後發現pooing的效果要比卷積的效果要好,因此上面的結構採用的是pooling而不是卷積結構。
後面就是一些結構了。
相關文章
- 卷積神經網路:Convolutional Neural Networks(CNN)卷積神經網路CNN
- 卷積神經網路(Convolutional Neural Network,CNN)卷積神經網路CNN
- 神經網路之卷積篇:詳解單層卷積網路(One layer of a convolutional network)神經網路卷積
- “卷積神經網路(Convolutional Neural Network,CNN)”之問卷積神經網路CNN
- Python模組(module)Python
- Tied Block Convolution:一種共享filter的卷積形態BloCFilter卷積
- 深度學習之卷積神經網路(Convolutional Neural Networks, CNN)(二)深度學習卷積神經網路CNN
- js module bundle 模組捆綁JS
- 前端模組化之ES Module前端
- 論文筆記:Diffusion-Convolutional Neural Networks (傳播-卷積神經網路)筆記卷積神經網路
- webpack 模組熱更新 Hot Module ReplacementWeb
- Java 9 的模組(Module)系統Java
- ES6 module模組 import exportImportExport
- Laravel-Module 模組開發一:評論模組實現Laravel
- 如何實現 node module 模組匯入
- Nginx的ngx_http_fastcgi_module模組NginxHTTPAST
- Nginx安裝nginx-rtmp-module模組Nginx
- ES Module,commonjs和Typescript模組系統JSTypeScript
- [ES6深度解析]15:模組 Module
- 注意力機制在圖卷積中的應用卷積
- EMCAD: Efficient Multi-scale Convolutional Attention Decoding for Medical Image Segmentation-LAGASegmentation
- 5.2.1.1 卷積卷積
- 卷積核卷積
- 無需複雜的數學描述,通過簡單程式碼理解卷積模組卷積
- nginx學習-ngx_http_rewrite_module模組NginxHTTP
- Python的包(package)和模組(module)介紹PythonPackage
- python 3呼叫paramiko模組報錯AttributeError: modulePythonError
- 塊清除(block clean out)BloC
- Oracle Block Cleanouts 塊清除OracleBloC
- Attention Model(注意力模型)思想初探模型
- attention注意力機制學習
- 淺析注意力(Attention)機制
- 重新思考擴張卷積!中科院&深睿提出新型上取樣模組JPU卷積
- 數字訊號處理:線性卷積、迴圈卷積、圓周卷積計算卷積
- 卷積神經網路四種卷積型別卷積神經網路型別
- 影像處理中的valid卷積與same卷積卷積
- 從module的簡單實現到模組化
- Python 精靈模組簡介_python sprites module introducePython