吳恩達機器學習筆記 —— 2 單變數線性迴歸

xingoo發表於2018-07-10

第一章講述了基本的機器學習的概念以及分類,這裡從單變數的線性迴歸入手,吳恩達講解了機器學習中的幾個重要因素,如模型、損失函式、優化方法等

更多內容參考 機器學習&深度學習

首先以房價預測入手:

房子的面積 每平米的房價
2104 460
1416 232
1534 315
852 178

其中:

  • m 為 樣本的數量
  • x 是樣本的特徵
  • y 是預測的值
  • \((x,y)\) 就是一條樣本資料
  • \(({ x }^{ (i) },{ y }^{ (i) })\) 是第i條樣本

吳恩達機器學習筆記 —— 2 單變數線性迴歸

機器學習的過程就是通過上面的例子學習一個模型,當再次有資料x進來的時候,能給出對應的y值
吳恩達機器學習筆記 —— 2 單變數線性迴歸
代價函式就是真實的值與我們預測的值之間的偏差,由於偏差有可能正,有可能負,因此使用均方差來表示。
吳恩達機器學習筆記 —— 2 單變數線性迴歸
不同的引數對應的損失值是不一樣的,最終機器學習的目的就是尋找這個損失之最低的方法。
吳恩達機器學習筆記 —— 2 單變數線性迴歸
吳恩達機器學習筆記 —— 2 單變數線性迴歸
吳恩達機器學習筆記 —— 2 單變數線性迴歸
在二維特徵下,可以看成一個關於損失函式的等高線圖。同一個線圈,損失函式的值是相同的。在越來越靠近中心點時,可以看到預測的直線越來越貼近樣本值。證明在等高線最中心的位置(最低點),損失值是最小的。
吳恩達機器學習筆記 —— 2 單變數線性迴歸
梯度下降可能找到是一個區域性最優解,而不是全域性最優解。
吳恩達機器學習筆記 —— 2 單變數線性迴歸

  1. 引數隨著每次迭代而改變
  2. α是學習率,可以控制每次步長的變化
  3. 每次改變的長度是基於偏導求解的
  4. 在修改引數時,應該統一計算修改的值,再統一進行調整

吳恩達機器學習筆記 —— 2 單變數線性迴歸
無論在最低點的哪一側,公式都能保證θ是朝著最低點的位置在變化。
吳恩達機器學習筆記 —— 2 單變數線性迴歸
學習率的大小決定了能否快速找到最優解。
吳恩達機器學習筆記 —— 2 單變數線性迴歸
隨機梯度下降在靠近最優解的時候,步長將會變得越來越小。
吳恩達機器學習筆記 —— 2 單變數線性迴歸
線性迴歸中,梯度下降是上面這樣的。
吳恩達機器學習筆記 —— 2 單變數線性迴歸

針對優化的方法,有batch梯度下降、隨機梯度下降、mini-batch梯度下降等等

batch梯度下降

吳恩達機器學習筆記 —— 2 單變數線性迴歸

隨機梯度下降

吳恩達機器學習筆記 —— 2 單變數線性迴歸

mini-batch梯度下降

吳恩達機器學習筆記 —— 2 單變數線性迴歸

參考:https://blog.csdn.net/ymshan92/article/details/54790657

相關文章