CNN—pooling層的作用
此處是個人見解:歡迎微信探討:lp5319
1、使構建更深層次的網路變得可行;
2、使得filters獲得更多的全域性和contextual(上下文)資訊;
3、使訓練可行,也可以說使得訓練變得更高效,主要是針對深層次的網路結構來說;
4、使得 特徵map大小和數量進行更好的選擇(權衡)。例如,就用輸入到全連線層的前一層conv來說,特徵map太大的話,特徵數量就不易太多,通過pooling,使得特徵map變小,特徵map數量就可以更多。
(那麼為什麼要特徵map更多呢?好處在哪裡?)
答:因為每個特徵map對應一個filters,特徵map越多對應更多的filters,而不同的filters提取的是影像中不同方面的特徵,也就是說filters越多對影像不同特徵的提取越多。
5、還有旋轉不變性哦。
如果幫到你了,請讚賞支援:
相關文章
- 全連線層的作用解析
- Pooling與馬賽克的秘密
- OSI 七層參考模型的作用模型
- 由淺入深:CNN中卷積層與轉置卷積層的關係CNN卷積
- [論文理解]變換不變性網路transformation invariant pooling (TI-Pooling)ORM
- 3、最大池化maxinmum pooling
- Pytorch AdaptivePooing操作轉Pooling操作PyTorchAPT
- Spark UDAF實現舉例 -- average poolingSpark
- 【深度學習篇】--神經網路中的池化層和CNN架構模型深度學習神經網路CNN架構模型
- 論文解讀(SAGPool)《Self-Attention Graph Pooling》
- CNN的Pytorch實現(LeNet)CNNPyTorch
- 論文解讀(GMT)《Accurate Learning of Graph Representations with Graph Multiset Pooling》
- CNN 簡述CNN
- 網課-cnnCNN
- 基於SSM的小程式中後端各結構層作用及關係SSM後端
- 網路安全中網路的五層協議包括什麼?作用有哪些?協議
- EdgeBoard中CNN架構的剖析CNN架構
- CNN--卷積神經網路從R-CNN到Faster R-CNN的理解(CIFAR10分類程式碼)CNN卷積神經網路AST
- 前端頁面有哪三層構成?分別有什麼作用?前端
- 【Fast R-CNN】Fast R-CNN (2015) 全文翻譯ASTCNN
- 的作用
- 搞清楚這個老六的真面目!逐層‘剝開’人工智慧中的卷積神經網路(CNN)人工智慧卷積神經網路CNN
- 卷積神經網路的一些細節思考(卷積、池化層的作用)卷積神經網路
- js的作用域、作用域鏈JS
- 爬蟲 - CNN Business爬蟲CNN
- Faster R-CNNASTCNN
- Convolutional Neural Networks(CNN)CNN
- CNN進化史CNN
- 一文讀懂目標檢測:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSDCNNASTYOLO
- 譯文:Relation Classification via Multi-Level Attention CNNs 使用多層級attention機制的CNN進行關係分類CNN
- 不使用殘差連線,ICML新研究靠初始化訓練上萬層標準CNNCNN
- js的作用域與作用域鏈JS
- js的作用域和作用域鏈JS
- 小白的經典CNN復現(三):AlexNetCNN
- Symbol 的作用Symbol
- jQuery $ 的作用jQuery
- systemd的作用
- #include的作用
- condition的作用