CNN—pooling層的作用
此處是個人見解:歡迎微信探討:lp5319
1、使構建更深層次的網路變得可行;
2、使得filters獲得更多的全域性和contextual(上下文)資訊;
3、使訓練可行,也可以說使得訓練變得更高效,主要是針對深層次的網路結構來說;
4、使得 特徵map大小和數量進行更好的選擇(權衡)。例如,就用輸入到全連線層的前一層conv來說,特徵map太大的話,特徵數量就不易太多,通過pooling,使得特徵map變小,特徵map數量就可以更多。
(那麼為什麼要特徵map更多呢?好處在哪裡?)
答:因為每個特徵map對應一個filters,特徵map越多對應更多的filters,而不同的filters提取的是影像中不同方面的特徵,也就是說filters越多對影像不同特徵的提取越多。
5、還有旋轉不變性哦。
如果幫到你了,請讚賞支援:
相關文章
- 全連線層的作用解析
- OSI 七層參考模型的作用模型
- 由淺入深:CNN中卷積層與轉置卷積層的關係CNN卷積
- Zigbee解析: NWK層作用
- 【深度學習篇】--神經網路中的池化層和CNN架構模型深度學習神經網路CNN架構模型
- 3、最大池化maxinmum pooling
- [論文理解]變換不變性網路transformation invariant pooling (TI-Pooling)ORM
- 子元素的margin-top作用於外層父元素解決方法
- CNN訓練中的技巧CNN
- Spark UDAF實現舉例 -- average poolingSpark
- (zt)權益結合法(Pooling Of Interest Method)REST
- 網課-cnnCNN
- CNN 簡述CNN
- 深度解析CNNCNN
- CNN圖圖圖CNN
- EdgeBoard中CNN架構的剖析CNN架構
- 基於SSM的小程式中後端各結構層作用及關係SSM後端
- 網路安全中網路的五層協議包括什麼?作用有哪些?協議
- Pytorch AdaptivePooing操作轉Pooling操作PyTorchAPT
- CNN--卷積神經網路從R-CNN到Faster R-CNN的理解(CIFAR10分類程式碼)CNN卷積神經網路AST
- CNN進化史CNN
- 爬蟲 - CNN Business爬蟲CNN
- Faster R-CNNASTCNN
- .NET應用架構設計—使用者端的防腐層作用及設計應用架構
- 搞清楚這個老六的真面目!逐層‘剝開’人工智慧中的卷積神經網路(CNN)人工智慧卷積神經網路CNN
- js的作用域、作用域鏈JS
- CNN的Pytorch實現(LeNet)CNNPyTorch
- 卷積神經網路的一些細節思考(卷積、池化層的作用)卷積神經網路
- 一文讀懂目標檢測:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSDCNNASTYOLO
- 論文解讀(SAGPool)《Self-Attention Graph Pooling》
- Enabling Database Resident Connection PoolingDatabaseIDE
- 不使用殘差連線,ICML新研究靠初始化訓練上萬層標準CNNCNN
- 譯文:Relation Classification via Multi-Level Attention CNNs 使用多層級attention機制的CNN進行關係分類CNN
- js的作用域和作用域鏈JS
- js的作用域與作用域鏈JS
- CNN模型引數解析CNN模型
- Keras 練習2 - CNNKerasCNN
- Java中的volatile的作用和synchronized作用Javasynchronized