卷積神經網路知識點總結

騷年,你渴望力量嘛?發表於2020-11-22

目錄

 

卷積有什麼作用?

卷積核

步長

填充

引數共享

池化

整體卷積流程


卷積有什麼作用?

左圖為BP神經網路,右圖為卷積神經網路。BP網路訓練連線線的引數,卷積訓練卷積核的引數

卷積網路到底做了一件什麼事呢?其實就是提取特徵 ,那麼又是如何提取的呢?

概括的來說:

輸入一副h*w*c的影像,通過k*k*c的卷積核在原始影像上進行滑動,滑動的過程中對影像進行計算,得到新的特徵圖,周而復始。

比如下圖輸入大小為32*32的影像,通道數為R,G.B三個彩色通道,對每個通道使用3*3的卷積核進行滑動計算,具體的計算過程為對應位置元素相乘相加,放到對應位置,

 注意,當分別對3個通道進行卷積完成後,每一個位置得到3個值,再把3個值分別相加得到一個值,作為提取到的特徵。

 以上是從數學角度對卷積在做什麼進行解釋,下面從更高的層面對卷積網路進行理解。

為什麼卷積能提取影像特徵呢?

舉一個例子:每一個卷積核都可以被看做特徵識別器,所謂的特徵,是指直線、簡單的顏色、曲線之類的東西,

我們使用一個訓練好的7*7的卷積核對曲線進行提取,提取的過程就是上面介紹的。

對老鼠尾巴弧線進行提取 

 

 把弧線的畫素和卷積核進行卷積,得到的資料為6600,資料比較大。如果在其他區域,則沒有那麼大的數值

經過多次卷積提取特徵

卷積核

二維卷積公式:

影像進行卷積時候就是做的一個對應位置相乘相加

步長

卷積核在影像上每次滑動的長度,步長越小,提取的特徵越細膩,步長越大,提取的特徵越粗糙

填充

為了彌補邊界特徵被計算的次數較少的問題,加入0填充,在移動程度上緩解該問題,讓網路能夠更公平的對待一些邊界特徵

引數共享

多少個卷積核得到多少個特徵圖。

引數共享:用同樣一個卷積核,對每個區域進行特徵提取。

池化

池化層:特徵壓縮,下采樣。有max poling(挑重要的),average poling。沒有任何矩陣的計算

 

整體卷積流程

卷積神經網路卷積層池化層輸出計算公式

 

 

 

 

 

 層:帶引數計算的才叫一層神經網路,下面網路一個7層

參考文獻:https://www.toutiao.com/a6700385442048508420/ 

相關文章