第一章講述了基本的機器學習的概念以及分類,這裡從單變數的線性迴歸入手,吳恩達講解了機器學習中的幾個重要因素,如模型、損失函式、優化方法等
更多內容參考 機器學習&深度學習
首先以房價預測入手:
房子的面積 | 每平米的房價 |
---|---|
2104 | 460 |
1416 | 232 |
1534 | 315 |
852 | 178 |
其中:
- m 為 樣本的數量
- x 是樣本的特徵
- y 是預測的值
- \((x,y)\) 就是一條樣本資料
- \(({ x }^{ (i) },{ y }^{ (i) })\) 是第i條樣本
機器學習的過程就是通過上面的例子學習一個模型,當再次有資料x進來的時候,能給出對應的y值
代價函式就是真實的值與我們預測的值之間的偏差,由於偏差有可能正,有可能負,因此使用均方差來表示。
不同的引數對應的損失值是不一樣的,最終機器學習的目的就是尋找這個損失之最低的方法。
在二維特徵下,可以看成一個關於損失函式的等高線圖。同一個線圈,損失函式的值是相同的。在越來越靠近中心點時,可以看到預測的直線越來越貼近樣本值。證明在等高線最中心的位置(最低點),損失值是最小的。
梯度下降可能找到是一個區域性最優解,而不是全域性最優解。
- 引數隨著每次迭代而改變
- α是學習率,可以控制每次步長的變化
- 每次改變的長度是基於偏導求解的
- 在修改引數時,應該統一計算修改的值,再統一進行調整
無論在最低點的哪一側,公式都能保證θ是朝著最低點的位置在變化。
學習率的大小決定了能否快速找到最優解。
隨機梯度下降在靠近最優解的時候,步長將會變得越來越小。
線性迴歸中,梯度下降是上面這樣的。
針對優化的方法,有batch梯度下降、隨機梯度下降、mini-batch梯度下降等等