一文帶你深入分析:線性迴歸模型的線性假設分析及其意義
https://www.toutiao.com/a6708910420951826958/
全文共 1534 字,預計學習時長 3 分鐘

在機器學習和統計領域,線性迴歸模型是最簡單的模型之一。這意味著,人們經常認為對線性迴歸的線性假設不夠準確。
例如,下列2個模型都是線性迴歸模型,即便右圖中的線看起來並不像直線。

圖1 同一資料集的兩種不同線性迴歸模型
若對此表示驚訝,那麼本文值得你讀一讀。本文試圖解釋對線性迴歸模型的線性假設,以及此類線性假設的重要性。
回答上述問題,需要了解以下兩個簡單例子中線性迴歸逐步執行的方式。

例1:最簡單的模型
從最簡單的例子開始。給定3對(x,y)訓練資料:(2,4)、(5,1)、(8,9)進行函式建模,發現目標變數y和輸入變數x之間的關係。

圖2 本文中使用的訓練資料集
這一模型最為簡單,如下所示:

通過運用該簡單的線性函式,可模擬x和y之間的關係。關鍵在於該函式不僅與輸入變數x成線性關係,而且與引數a、b成線性關係。
當前目標是確定最符合訓練資料的引數a和b的值。
這可通過測量每個輸入x的實際目標值y和模型f(x)之間的失配來實現,並將失配最小化。這種失配(=最小值)被稱為誤差函式。
有多種誤差函式可供選擇,但其中最簡單的要數RSS,即每個資料點x對應的模型f(x)與目標值y的誤差平方和。

利用誤差函式的概念,可將“確定最符合訓練資料的引數a、b”改為“確定引數a、b,使誤差函式最小化”。
計算一下訓練資料的誤差函式。

上面的等式就是要求最小值的誤差函式。但是,怎樣才能找到引數a、b,得到此函式的最小值呢?為啟發思維,需要將該函式視覺化。

圖3 誤差函式的第一個模型
從上方的3D圖來看,人們會本能地猜測該函式為凸函式。凸函式的優化(找到最小值)比一般數學優化簡單得多,因為任何區域性最小值都是整個凸函式的最小值。(簡單來講,就是凸函式只有一個最小點,例如“U”的形狀)由於凸函式的這種特性,通過簡單求解如下的偏微分方程,便可得到使函式最小化的引數。

下面解下之前的例子吧。

通過求解上面的等式,得到a = 5/6、b = 1/2。因此,第一個模型(最小化RSS)如下所示:


圖4 第一個模型

示例2:簡單的彎曲模型
現在,對於相同的資料點,可考慮如下的另一模型:

如上所示,該模型不再是輸入變數x的線性函式,但仍是引數a、b的線性函式。
下面看下這一變化對模型擬合過程的影響。我們將使用與前一示例相同的誤差函式——RSS。

如上所示,等式看起來與前一個非常相似。(係數的值不同,但方程的形式相同。)該模型的視覺化影象如下:

圖5 誤差函式的第二個模型
兩個模型的形狀看起來也很相似,仍然是凸函式。但祕密在於,當使用訓練資料計算誤差時,輸入變數作為具體值給出(例如,x²的值在資料集中給定為22、52和8²,即(2,4)、(5,1)、(8,9))。因此,無論輸入變數的形式多複雜(例如x、x²、sin(x)、log(x)等......),給定的值在誤差函式中僅為常數。
誤差函式的第二個模型也是凸函式,因此可通過與前一示例完全相同的過程找到最佳引數。

通過求解上面的等式,得到a = 61/618、b = 331/206。所以,第二個模型如下所示:


圖6 第二個模型

結論:線性迴歸模型的線性假設
上述2個例子的求解過程完全相同(且非常簡單),即使一個為輸入變數x的線性函式,一個為x的非線性函式。兩個模型的共同特徵是兩個函式都與引數a、b成線性關係。這是對線性迴歸模型的線性假設,也是線性迴歸模型數學單性的關鍵。
上面2個模型非常簡單,但一般而言,模型與其引數的線性假設,可保證RSS始終為凸函式。通過求解簡單偏微分方程,得到最優引數,這就是線性假設至關重要的原因。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2649379/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- PRML 迴歸的線性模型模型
- 多元線性迴歸模型模型
- 資料分析:線性迴歸
- 一元線性迴歸模型模型
- 線性迴歸
- 1.3 - 線性迴歸
- 線性迴歸—求解介紹及迴歸擴充套件套件
- 線性迴歸-如何對資料進行迴歸分析
- 線性迴歸與邏輯迴歸邏輯迴歸
- 線性迴歸推導
- 4-線性迴歸
- 線性迴歸實戰
- 1維線性迴歸
- 線性迴歸總結
- R:alpha多樣性線性迴歸
- spss迴歸分析的基本步驟 spss線性迴歸怎麼做SPSS
- 線性迴歸——lasso迴歸和嶺迴歸(ridge regression)
- spark-mlib線性迴歸Spark
- pytorch實現線性迴歸PyTorch
- TensorFlow實現線性迴歸
- 線性迴歸-程式碼庫
- 線性迴歸演算法演算法
- 線性迴歸模型公式推導完整簡潔版模型公式
- 5. `sklearn`下的線性迴歸
- 對比線性迴歸、邏輯迴歸和SVM邏輯迴歸
- python實現線性迴歸之簡單迴歸Python
- 模式識別與機器學習——迴歸的線性模型模式機器學習模型
- 通俗理解線性迴歸(Linear Regression)
- EVIEWS 簡單線性迴歸 02View
- 機器學習:線性迴歸機器學習
- numpy梯度回傳線性迴歸梯度
- 線性迴歸基礎程式碼
- 廣義線性模型GLM模型
- 正規方程法來求解線性迴歸模型引數模型
- 使用線性迴歸模型預測黃金ETF價格模型
- js 線性最小二乘迴歸線方程JS
- 大資料分析筆記 (4.1) - 線性迴歸分析(Linear Regression)大資料筆記
- 【pytorch_5】線性迴歸的實現PyTorch