個人學習卷積神經網路的疑惑解答

塵封的記憶0發表於2018-01-12

以下是我自己在學習CNN的時候遇到的一些困惑,以及查閱一些資料後得到的一些答案。

第一個問題:為什麼不用BP神經網路去做呢?
1.全連線,權值太多,需要很多樣本去訓練,計算困難
  • 應對之道:減少權值的嘗試,區域性連線,權值共享

  卷積神經網路有兩種神器可以降低引數數目。
  第一種神器叫做區域性感知野,一般認為人對外界的認知是從區域性到全域性的,而影象的空間聯絡也是區域性的畫素聯絡較為緊密,而距離較遠的畫素相關性則較弱。因而,每個神經元其實沒有必要對全域性影象進行感知,只需要對區域性進行感知,然後在更高層將區域性的資訊綜合起來就得到了全域性的資訊。
  第二級神器,即權值共享。

 


2.邊緣過渡不平滑
  • 應對之道:取樣視窗彼此重疊

 


第二個問題:LeNet裡的隱層的神經元個數怎麼確定呢?
它和原影象,也就是輸入的大小(神經元個數)、濾波器的大小和濾波器在影象中的滑動步長都有關!

LeNet-5共有7層,不包含輸入,每層都包含可訓練引數(連線權重)。輸入影象為32*32大小。

例如,我的影象是1000x1000畫素,而濾波器大小是10x10,假設濾波器沒有重疊,也就是步長為10,這樣隱層的神經元個數就是(1000x1000 )/ (10x10)=100x100個神經元了。

那重疊了怎麼算?比如上面圖的C2中28*28是如何得來的?這裡的步長就是1,視窗大小是5*5,所以視窗滑動肯定發生了重疊。下圖解釋了28的由來。

 

 

第三個問題:S2層是一個下采樣層是幹嘛用的?為什麼是下采樣?
也就是上面所說的池化層,只是叫法不同而已。這層利用影象區域性相關性的原理,對影象進行子抽樣,可以減少資料處理量同時保留有用資訊,相當於影象壓縮。


不懂的可以加我的QQ群:522869126(語音訊號處理) 歡迎


到來哦,看了博文給點腳印唄,謝謝啦~~


相關文章