個人學習卷積神經網路的疑惑解答
以下是我自己在學習CNN的時候遇到的一些困惑,以及查閱一些資料後得到的一些答案。
第一個問題:為什麼不用BP神經網路去做呢?
1.全連線,權值太多,需要很多樣本去訓練,計算困難
• 應對之道:減少權值的嘗試,區域性連線,權值共享
卷積神經網路有兩種神器可以降低引數數目。
第一種神器叫做區域性感知野,一般認為人對外界的認知是從區域性到全域性的,而影象的空間聯絡也是區域性的畫素聯絡較為緊密,而距離較遠的畫素相關性則較弱。因而,每個神經元其實沒有必要對全域性影象進行感知,只需要對區域性進行感知,然後在更高層將區域性的資訊綜合起來就得到了全域性的資訊。
第二級神器,即權值共享。
2.邊緣過渡不平滑
• 應對之道:取樣視窗彼此重疊
第二個問題:LeNet裡的隱層的神經元個數怎麼確定呢?
它和原影象,也就是輸入的大小(神經元個數)、濾波器的大小和濾波器在影象中的滑動步長都有關!
LeNet-5共有7層,不包含輸入,每層都包含可訓練引數(連線權重)。輸入影象為32*32大小。
例如,我的影象是1000x1000畫素,而濾波器大小是10x10,假設濾波器沒有重疊,也就是步長為10,這樣隱層的神經元個數就是(1000x1000 )/ (10x10)=100x100個神經元了。
那重疊了怎麼算?比如上面圖的C2中28*28是如何得來的?這裡的步長就是1,視窗大小是5*5,所以視窗滑動肯定發生了重疊。下圖解釋了28的由來。
第三個問題:S2層是一個下采樣層是幹嘛用的?為什麼是下采樣?
也就是上面所說的池化層,只是叫法不同而已。這層利用影象區域性相關性的原理,對影象進行子抽樣,可以減少資料處理量同時保留有用資訊,相當於影象壓縮。
不懂的可以加我的QQ群:522869126(語音訊號處理) 歡迎
你的到來哦,看了博文給點腳印唄,謝謝啦~~
相關文章
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- 深度學習三:卷積神經網路深度學習卷積神經網路
- 深度學習——LeNet卷積神經網路初探深度學習卷積神經網路
- 深度學習筆記------卷積神經網路深度學習筆記卷積神經網路
- 深度學習卷積神經網路筆記深度學習卷積神經網路筆記
- 卷積神經網路學習筆記——SENet卷積神經網路筆記SENet
- 卷積神經網路CNN-學習1卷積神經網路CNN
- 【卷積神經網路學習】(4)機器學習卷積神經網路機器學習
- 卷積神經網路卷積神經網路
- 深度學習經典卷積神經網路之AlexNet深度學習卷積神經網路
- 卷積神經網路學習筆記——Siamese networks(孿生神經網路)卷積神經網路筆記
- 深度學習革命的開端:卷積神經網路深度學習卷積神經網路
- 卷積神經網路-AlexNet卷積神經網路
- 5.2.1 卷積神經網路卷積神經網路
- 卷積神經網路CNN卷積神經網路CNN
- 卷積神經網路概述卷積神經網路
- 解密卷積神經網路!解密卷積神經網路
- 卷積神經網路-1卷積神經網路
- 卷積神經網路-2卷積神經網路
- 卷積神經網路-3卷積神經網路
- [譯] 淺析深度學習神經網路的卷積層深度學習神經網路卷積
- 學習OpenCL與卷積神經網路 Day1卷積神經網路
- 卷積神經網路四種卷積型別卷積神經網路型別
- 全卷積神經網路FCN卷積神經網路
- 深度剖析卷積神經網路卷積神經網路
- 深度學習-卷積神經網路-演算法比較深度學習卷積神經網路演算法
- 卷積神經網路數學原理解析卷積神經網路
- 卷積神經網路鼻祖LeNet網路分析卷積神經網路
- 【機器學習基礎】卷積神經網路(CNN)基礎機器學習卷積神經網路CNN
- 深度學習入門筆記(十八):卷積神經網路(一)深度學習筆記卷積神經網路
- 深度學習之卷積神經網路(Convolutional Neural Networks, CNN)(二)深度學習卷積神經網路CNN
- 卷積神經網路中的Winograd快速卷積演算法卷積神經網路演算法
- 何為神經網路卷積層?神經網路卷積
- 卷積神經網路(CNN)詳解卷積神經網路CNN
- CNN神經網路之卷積操作CNN神經網路卷積
- 卷積神經網路 part2卷積神經網路
- 14 卷積神經網路(進階)卷積神經網路
- Tensorflow-卷積神經網路CNN卷積神經網路CNN
- 讓卷積神經網路來辨識馬和人卷積神經網路