空洞可分離卷積原理小結
![從b和c可以看出,有無空洞卷積,並不影響輸出特徵圖的尺寸,也就是說輸出特徵圖的尺和空洞數無關,因此可以利用空洞卷積增大感受野,而輸出特徵圖的尺寸可以保持不變
深度可分離卷積分為兩步:
第一步用三個卷積對三個通道分別做卷積,這樣在一次卷積後,輸出3個數。
這輸出的三個數,再通過一個1x1x3的卷積核(pointwise核),得到一個數。
所以深度可分離卷積其實是通過兩次卷積實現的。
第一步,對三個通道分別做卷積,輸出三個通道的屬性:
第二步,用卷積核1x1x3對三個通道再次做卷積,這個時候的輸出就和正常卷積一樣,是8x8x1:
如果要提取更多的屬性,則需要設計更多的1x1x3卷積核心就可以(圖片引用自原網站。感覺應該將8x8x256那個立方體繪製成256個8x8x1,因為他們不是一體的,代表了256個屬性):
可以看到,如果僅僅是提取一個屬性,深度可分離卷積的方法,不如正常卷積。隨著要提取的屬性越來越多,深度可分離卷積就能夠節省更多的引數。
轉:https://blog.csdn.net/evergreenswj/article/details/92764387
相關文章
- 深度可分離卷積卷積
- Dilated Convolutions 空洞卷積卷積
- 空洞卷積 Dilated Convolution卷積
- TF2.keras 實現基於深度可分離卷積網路的影象分類模型TF2Keras卷積模型
- TF2.keras 實現基於深度可分離卷積網路的影像分類模型TF2Keras卷積模型
- ESPNet/ESPNetV2:空洞卷積金字塔 | 輕量級網路卷積
- Pytorch卷積層原理和示例PyTorch卷積
- CNN使用小卷積核而非大卷積的好處CNN卷積
- 卷積神經網路數學原理解析卷積神經網路
- 5.2.1.1 卷積卷積
- 卷積核卷積
- 數字訊號處理:線性卷積、迴圈卷積、圓周卷積計算卷積
- 卷積神經網路四種卷積型別卷積神經網路型別
- 卷積神經網路(CNN)模型結構卷積神經網路CNN模型
- 卷積運算元的矩陣向量乘積表示&一維離散降質模型卷積矩陣模型
- 5.2.1.3 卷積層卷積
- 1*1卷積卷積
- 卷積步長卷積
- 卷積神經網路的小基礎知識卷積神經網路
- 影像處理中的valid卷積與same卷積卷積
- 卷積神經網路:卷積層和池化層卷積神經網路
- 卷積神經網路的原理及Python實現卷積神經網路Python
- 卷積神經網路知識點總結卷積神經網路
- SDWebImage原理小結Web
- 卷積自編碼卷積
- 2.0 卷積網路卷積
- 值得收藏 | 深度剖析 TensorCore 卷積運算元實現原理卷積
- 一句話總結卷積神經網路卷積神經網路
- 卷積神經網路中的Winograd快速卷積演算法卷積神經網路演算法
- 感知機原理小結
- innodb redo原理小結
- 卷積神經網路卷積神經網路
- 狄利克雷卷積卷積
- 影象卷積與濾波卷積
- 卷積 隨筆備份卷積
- 【深度學習原理第4篇】卷積神經網路詳解(CNN)深度學習卷積神經網路CNN
- 機器學習演算法(5):卷積神經網路原理及其keras實現機器學習演算法卷積神經網路Keras
- 由淺入深:CNN中卷積層與轉置卷積層的關係CNN卷積