卷積神經網路的小基礎知識

weixin_34054866發表於2018-01-16
5193446-15c229fb50b4836b
一張圖就夠了

batchsize:批大小。在深度學習中,一般採用SGD訓練,即每次訓練在訓練集中取batchsize個樣本訓練;

iteration:1個iteration等於使用batchsize個樣本訓練一次;

epoch:1個epoch等於使用訓練集中的全部樣本訓練一次;

 batch Normalization:在神經網路訓練開始前,都要對輸入資料做一個歸一化處理,那麼具體為什麼需要歸一化呢?歸一化後有什麼好處呢?原因在於神經網路學習過程本質就是為了學習資料分佈,一旦訓練資料與測試資料的分佈不同,那麼網路的泛化能力也大大降低;另外一方面,一旦每批訓練資料的分佈各不相同(batch 梯度下降),那麼網路就要在每次迭代都去學習適應不同的分佈,這樣將會大大降低網路的訓練速度,這也正是為什麼我們需要對資料都要做一個歸一化預處理的原因。

相關文章