機器學習知識點整理(三)

_蓑衣客發表於2020-12-22

十一、深度學習基礎

1.為什麼必須在神經網路中引入非線性?

 2.ReLU在零點不可導,那麼在反向傳播中怎麼處理?

ReLU雖然在零點不可導,但是我們在做反向傳播的計算時,對ReLu這個函式的導數分情況討論,即ReLU在零點時人為地給它賦予一個導數,比如0或者1。例如在下面的ReLU的反向傳播函式實現中,將ReLU在零點位置的導數設定為0。

 

 3.ReLu有哪些優缺點

優點:
  1). 使用 ReLU 的 SGD 演算法的收斂速度比 sigmoid 和 tanh 快;
  2.) 在 x > 0 上,不會出現梯度飽和,梯度消失的問題。
  3.) 計算複雜度低,不需要進行指數運算,只要一個閾值(0)就可以得到啟用值。
缺點:
  1.) ReLU 的輸出不是 0 均值的,它將小於 0 的值都置為 0; 使得所有引數的更新方
向都相同,導致了 ZigZag 現象。
  2.) Dead ReLU Problem (ReLU 神經元壞死現象):某些神經元可能永遠不被啟用,
導致相應引數永遠不會被更新(在負數部分,梯度為 0)
  3.) ReLU 不會對資料做幅度壓縮,所以資料的幅度會隨著模型層數的增加不斷擴
張。
注: ZigZag 現象指的是,模型中所有的引數在一次梯度更新的過程中,更新方向相
同,即同為正或者同為負。這就導致了梯度更新影像呈現 Z 字形,進而導致梯度更新
效率比較低。

4.Batch Normalization解決了什麼問題

 5.

 

 6.

 

 

 

 

 

 

 

 

7.

 

 

 

8.

 

9.

 

10.

 

11.

 

 

 

 

 

 

 十二、CV

1.

 

 2.

 

 3.

 

 4.

 

 5.

 

 

 

 6.

 

 

 

 

 

 

 

 7.

 

 8.

 9.

 

 

相關文章