【機器學習】--迴歸問題的數值優化

LHBlog發表於2018-03-31

一、前述

迴歸問題求解時梯度下降由於樣本資料的多樣性,往往對模型有很大的影響,所以需要對樣本資料做一些優化

二、歸一化

1、背景

各個維度的輸入如果在數值上差異很大,那麼會引起正確的w在各個維度上數值差異很大。這樣找尋w的時候,對各個維度的調整基本上是按照同一個數量級來進行調整的。因此需要歸一化。

2、歸一化方法

• 歸一化的一種方法:最大值最小值法
• 缺點是抗干擾能力弱
• 受離群值得影響比較大
• 中間容易沒有資料

歸一化的一種方法:方差歸一化
優點是抗干擾能力強,和所有資料都有關

. 使數量級在一個量級
• 缺點是最終未必會落到0到1之間
• 犧牲歸一化結果為代價提高穩定

歸一化的一種方法:均值歸一化

3、案例分析一

優化方法:方差歸一化

結果:

4、案例分析二

解決辦法:儘可能讓X的各個維度上取值有正有負。

均值歸一化,每個數量減去平均值。

 

相關文章