Dilated Convolutions 空洞卷積
Dilated Convolutions,中文一般稱為空洞卷積或者擴張卷積,是一種改進的影象卷積方法。
擴張卷積工作示意圖如下:
圖a是普通的卷積,感受野是3*3,相當於不擴充,dilation=1
圖b是擴張卷積,感受野是7*7,dilation=2
圖c是擴張卷積,感受野是15*15,dilation=4
擴張卷積中多了一個擴充率引數(dilation rate),用來控制擴張(空洞填充)的大小,擴充率引數越大,同等卷積核大小對應的感受野越大。擴充卷積對普通卷積的改進就是為了獲得更大的感受野。
標準卷積在特定場景如影象語義分割下存在一定的問題,比如通過池化操作降低計算量,同時增大感受野,再通過反摺積(上取樣)擴充影象到原始大小,這中間會丟失很多資訊,特別是空間結構資訊,另一個問題是小的物體資訊無法復原重建出來。而在空洞卷積中,避免了使用池化操作的同時增大了感受野,不需要影象解析度的壓縮,保留了影象內部的資料結構,可以有比標準卷積更好的分割效果。
相關文章
- 空洞卷積 Dilated Convolution卷積
- 神經網路之卷積篇:詳解卷積步長(Strided convolutions)神經網路卷積IDE
- 空洞可分離卷積原理小結卷積
- ESPNet/ESPNetV2:空洞卷積金字塔 | 輕量級網路卷積
- 論文翻譯:2020_Densely connected neural network with dilated convolutions for real-time speech enhancement in the time domainAI
- 5.2.1.1 卷積卷積
- 卷積核卷積
- 數字訊號處理:線性卷積、迴圈卷積、圓周卷積計算卷積
- 卷積神經網路四種卷積型別卷積神經網路型別
- 影像處理中的valid卷積與same卷積卷積
- 5.2.1.3 卷積層卷積
- 1*1卷積卷積
- 卷積步長卷積
- 卷積自編碼卷積
- 2.0 卷積網路卷積
- 深度可分離卷積卷積
- 卷積神經網路中的Winograd快速卷積演算法卷積神經網路演算法
- Tensorflow快餐教程(9)-卷積卷積
- 卷積神經網路卷積神經網路
- 卷積 隨筆備份卷積
- 由淺入深:CNN中卷積層與轉置卷積層的關係CNN卷積
- FSNet:利用卷積核概要進行深度卷積神經網路的壓縮卷積神經網路
- 卷積神經網路概述卷積神經網路
- 解密卷積神經網路!解密卷積神經網路
- 5.2.1 卷積神經網路卷積神經網路
- 卷積神經網路CNN卷積神經網路CNN
- 用 Pytorch 理解卷積網路PyTorch卷積
- 卷積神經網路-AlexNet卷積神經網路
- 卷積神經網路-1卷積神經網路
- 卷積神經網路-2卷積神經網路
- 卷積神經網路-3卷積神經網路
- CNN使用小卷積核而非大卷積的好處CNN卷積
- 卷積神經網路的一些細節思考(卷積、池化層的作用)卷積神經網路
- 吳恩達《卷積神經網路》課程筆記(2)– 深度卷積模型:案例研究吳恩達卷積神經網路筆記模型
- 卷積為什麼如此強大?一文全解深度學習中的卷積卷積深度學習
- 神經網路之卷積篇:詳解單層卷積網路(One layer of a convolutional network)神經網路卷積
- 全卷積神經網路FCN卷積神經網路
- 深度剖析卷積神經網路卷積神經網路