1、背景知識
1.1 插值、擬合、迴歸和預測
插值、擬合、迴歸和預測,都是數學建模中經常提到的概念,而且經常會被混為一談。
- 插值,是在離散資料的基礎上補插連續函式,使得這條連續曲線通過全部給定的離散資料點。 插值是離散函式逼近的重要方法,利用它可通過函式在有限個點處的取值狀況,估算出函式在其他點處的近似值。
- 擬合,是用一個連續函式(曲線)靠近給定的離散資料,使其與給定的資料相吻合。
因此,插值和擬合都是根據已知資料點求變化規律和特徵相似的近似曲線的過程,但是插值要求近似曲線完全經過給定的資料點,而擬合只要求近似曲線在整體上儘可能接近資料點,並反映資料的變化規律和發展趨勢。插值可以看作是一種特殊的擬合,是要求誤差函式為 0的擬合。由於資料點通常都帶有誤差,誤差為 0 往往意味著過擬合,過擬合模型對於訓練集以外的資料的泛化能力是較差的。因此在實踐中,插值多用於影像處理,擬合多用於實驗資料處理。
-
迴歸,是研究一組隨機變數與另一組隨機變數之間關係的統計分析方法,包括建立數學模型並估計模型引數,並檢驗數學模型的可信度,也包括利用建立的模型和估計的模型引數進行預測或控制。
-
預測是非常廣泛的概念,在數模中是指對獲得的資料、資訊進行定量研究,據此建立與預測目的相適應的數學模型,然後對未來的發展變化進行定量地預測。通常認為,插值和擬合都是預測類的方法。
迴歸是一種資料分析方法,擬合是一種具體的資料處理方法。擬合側重於曲線引數尋優,使曲線與資料相符;而回歸側重於研究兩個或多個變數之間的關係。
1.2 線性迴歸
迴歸分析(Regression analysis)是一種統計分析方法,研究是自變數和因變數之間的定量關係,經常用於預測分析、時間序列模型以及發現變數之間的因果關係。按照變數之間的關係型別,迴歸分析可以分為線性迴歸和非線性迴歸。
線性迴歸(Linear regression) 假設給定資料集中的目標(y)與特徵(X)存線上性關係,即滿足一個多元一次方程 。 迴歸分析中,只包括一個自變數和一個因變數,且二者的關係可用一條直線近似表示,稱為一元線性迴歸;如果包括兩個或多個的自變數,且因變數和自變數之間是線性關係,則稱為多元線性迴歸。
根據樣本資料,採用最小二乘法可以得到線性迴歸模型引數的估計量,並使根據估計引數計算的模型資料與給定的樣本資料之間誤差的平方和為最小。
進一步地,還需要分析對於樣本資料究竟能不能採用線性迴歸方法,或者說線性相關的假設是否合理、線性模型是否具有良好的穩定性?這就需要使用統計分析進行顯著性檢驗,檢驗因變數與自變數之間的線性關係是否顯著,用線性模型來描述它們之間的關係是否恰當。
2、Statsmodels 進行線性迴歸
本節結合 Statsmodels 統計分析包 的使用介紹線性擬合和迴歸分析。線性模型可以表達為如下公式:
2.1 匯入工具包
import statsmodels.api as sm
from statsmodels.sandbox.regression.predstd import wls_prediction_std
2.2 匯入樣本資料
樣本資料通常儲存在資料檔案中,因此要讀取資料檔案獲得樣本資料。為便於閱讀和測試程式,本文使用隨機數生成樣本資料。讀取資料檔案匯入資料的方法,將在後文介紹。
# 生成樣本資料:
nSample = 100
x1 = np.linspace(0, 10, nSample) # 起點為 0,終點為 10,均分為 nSample個點
e = np.random.normal(size=len(x1)) # 正態分佈隨機數
yTrue = 2.36 + 1.58 * x1 # y = b0 + b1*x1
yTest = yTrue + e # 產生模型資料
本案例是一元線性迴歸問題,(yTest,x)是匯入的樣本資料,我們需要通過線性迴歸獲得因變數 y 與自變數 x 之間的定量關係。yTrue 是理想模型的數值,yTest 模擬實驗檢測的資料,在理想模型上加入了正態分佈的隨機誤差。
2.3 建模與擬合
一元線性迴歸模型方程為:
y = β0 + β1 * x + e
先通過 sm.add_constant() 向矩陣 X 新增截距列後,再用 sm.OLS() 建立普通最小二乘模型,最後用 model.fit() 就能實現線性迴歸模型的擬合,並返回擬合與統計分析的結果摘要。
X = sm.add_constant(x1) # 向 x1 左側新增截距列 x0=[1,...1]
model = sm.OLS(yTest, X) # 建立最小二乘模型(OLS)
results = model.fit() # 返回模型擬合結果
statsmodels.OLS 是 statsmodels.regression.linear_model 的函式,有 4個引數 (endog, exog, missing, hasconst)。
第一個引數 endog 是迴歸模型中的因變數 y(t), 是1-d array 資料型別。
第二個輸入 exog 是自變數 x0(t),x1(t),…,xm(t),是(m+1)-d array 資料型別。
需要注意的是,statsmodels.OLS 的迴歸模型沒有常數項,其形式為:
y = B*X + e = β0*x0 + β1*x1 + e, x0 = [1,...1]
而之前匯入的資料 (yTest,x1) 並不包含 x0,因此需要在 x1 左側增加一列截距列 x0=[1,...1],將自變數矩陣轉換為 X = (x0, x1)。函式 sm.add_constant() 實現的就是這個功能。
引數 missing 用於資料檢查, hasconst 用於檢查常量,一般情況不需要。
2.4 擬合和統計結果的輸出
Statsmodels 進行線性迴歸分析的輸出結果非常豐富,results.summary() 返回了迴歸分析的摘要。
print(results.summary()) # 輸出迴歸分析的摘要
摘要所返回的內容非常豐富,這裡先討論最重要的一些結果,在 summary 的中間段落。
==============================================================================
coef std err t P>|t| [0.025 0.975]
------------------------------------------------------------------------------
const 2.4669 0.186 13.230 0.000 2.097 2.837
x1 1.5883 0.032 49.304 0.000 1.524 1.652
==============================================================================
-
coef:迴歸係數(Regression coefficient),即模型引數 β0、β1、...的估計值。
-
std err :標準差( Standard deviation),也稱標準偏差,是方差的算術平方根,反映樣本資料值與迴歸模型估計值之間的平均差異程度 。標準差越大,迴歸係數越不可靠。
-
t:t 統計量(t-Statistic),等於迴歸係數除以標準差,用於對每個迴歸係數分別進行檢驗,檢驗每個自變數對因變數的影響是否顯著。如果某個自變數 xi的影響不顯著,意味著可以從模型中剔除這個自變數。
-
P>|t|:t檢驗的 P值(Prob(t-Statistic)),反映每個自變數 xi 與因變數 y 的相關性假設的顯著性。如果 p<0.05,可以理解為在0.05的顯著性水平下變數xi與y存在迴歸關係,具有顯著性。
-
[0.025,0.975]:迴歸係數的置信區間(Confidence interval)的下限、上限,某個迴歸係數的置信區間以 95%的置信度包含該回歸係數 。注意並不是指樣本資料落在這一區間的概率為 95%。
此外,還有一些重要的指標需要關注:
-
R-squared:R方判定係數(Coefficient of determination),表示所有自變數對因變數的聯合的影響程度,用於度量回歸方程擬合度的好壞,越接近於 1說明擬合程度越好。
-
F-statistic:F 統計量(F-Statistic),用於對整體迴歸方程進行顯著性檢驗,檢驗所有自變數在整體上對因變數的影響是否顯著。
Statsmodels 也可以通過屬性獲取所需的迴歸分析的資料,例如:
print("OLS model: Y = b0 + b1 * x") # b0: 迴歸直線的截距,b1: 迴歸直線的斜率
print('Parameters: ', results.params) # 輸出:擬合模型的係數
yFit = results.fittedvalues # 擬合模型計算出的 y值
ax.plot(x1, yTest, 'o', label="data") # 原始資料
ax.plot(x1, yFit, 'r-', label="OLS") # 擬合資料
3、一元線性迴歸
3.1 一元線性迴歸 Python 程式:
# LinearRegression_v1.py
# Linear Regression with statsmodels (OLS: Ordinary Least Squares)
# v1.0: 呼叫 statsmodels 實現一元線性迴歸
# 日期:2021-05-04
import numpy as np
import matplotlib.pyplot as plt
import statsmodels.api as sm
from statsmodels.sandbox.regression.predstd import wls_prediction_std
# 主程式
def main(): # 主程式
# 生成測試資料:
nSample = 100
x1 = np.linspace(0, 10, nSample) # 起點為 0,終點為 10,均分為 nSample個點
e = np.random.normal(size=len(x1)) # 正態分佈隨機數
yTrue = 2.36 + 1.58 * x1 # y = b0 + b1*x1
yTest = yTrue + e # 產生模型資料
# 一元線性迴歸:最小二乘法(OLS)
X = sm.add_constant(x1) # 向矩陣 X 新增截距列(x0=[1,...1])
model = sm.OLS(yTest, X) # 建立最小二乘模型(OLS)
results = model.fit() # 返回模型擬合結果
yFit = results.fittedvalues # 模型擬合的 y值
prstd, ivLow, ivUp = wls_prediction_std(results) # 返回標準偏差和置信區間
# OLS model: Y = b0 + b1*X + e
print(results.summary()) # 輸出迴歸分析的摘要
print("\nOLS model: Y = b0 + b1 * x") # b0: 迴歸直線的截距,b1: 迴歸直線的斜率
print('Parameters: ', results.params) # 輸出:擬合模型的係數
# 繪圖:原始資料點,擬合曲線,置信區間
fig, ax = plt.subplots(figsize=(10, 8))
ax.plot(x1, yTest, 'o', label="data") # 原始資料
ax.plot(x1, yFit, 'r-', label="OLS") # 擬合資料
ax.plot(x1, ivUp, '--',color='orange',label="upConf") # 95% 置信區間 上限
ax.plot(x1, ivLow, '--',color='orange',label="lowConf") # 95% 置信區間 下限
ax.legend(loc='best') # 顯示圖例
plt.title('OLS linear regression ')
plt.show()
return
if __name__ == '__main__': #YouCans, XUPT
main()
3.2 一元線性迴歸 程式執行結果:
OLS Regression Results
==============================================================================
Dep. Variable: y R-squared: 0.961
Model: OLS Adj. R-squared: 0.961
Method: Least Squares F-statistic: 2431.
Date: Wed, 05 May 2021 Prob (F-statistic): 5.50e-71
Time: 16:24:22 Log-Likelihood: -134.62
No. Observations: 100 AIC: 273.2
Df Residuals: 98 BIC: 278.5
Df Model: 1
Covariance Type: nonrobust
==============================================================================
coef std err t P>|t| [0.025 0.975]
------------------------------------------------------------------------------
const 2.4669 0.186 13.230 0.000 2.097 2.837
x1 1.5883 0.032 49.304 0.000 1.524 1.652
==============================================================================
Omnibus: 0.070 Durbin-Watson: 2.016
Prob(Omnibus): 0.966 Jarque-Bera (JB): 0.187
Skew: 0.056 Prob(JB): 0.911
Kurtosis: 2.820 Cond. No. 11.7
==============================================================================
OLS model: Y = b0 + b1 * x
Parameters: [2.46688389 1.58832741]
4、多元線性迴歸
4.1 多元線性迴歸 Python 程式:
# LinearRegression_v2.py
# Linear Regression with statsmodels (OLS: Ordinary Least Squares)
# v2.0: 呼叫 statsmodels 實現多元線性迴歸
# 日期:2021-05-04
import numpy as np
import matplotlib.pyplot as plt
import statsmodels.api as sm
from statsmodels.sandbox.regression.predstd import wls_prediction_std
# 主程式
def main(): # 主程式
# 生成測試資料:
nSample = 100
x0 = np.ones(nSample) # 截距列 x0=[1,...1]
x1 = np.linspace(0, 20, nSample) # 起點為 0,終點為 10,均分為 nSample個點
x2 = np.sin(x1)
x3 = (x1-5)**2
X = np.column_stack((x0, x1, x2, x3)) # (nSample,4): [x0,x1,x2,...,xm]
beta = [5., 0.5, 0.5, -0.02] # beta = [b1,b2,...,bm]
yTrue = np.dot(X, beta) # 向量點積 y = b1*x1 + ...+ bm*xm
yTest = yTrue + 0.5 * np.random.normal(size=nSample) # 產生模型資料
# 多元線性迴歸:最小二乘法(OLS)
model = sm.OLS(yTest, X) # 建立 OLS 模型: Y = b0 + b1*X + ... + bm*Xm + e
results = model.fit() # 返回模型擬合結果
yFit = results.fittedvalues # 模型擬合的 y值
print(results.summary()) # 輸出迴歸分析的摘要
print("\nOLS model: Y = b0 + b1*X + ... + bm*Xm")
print('Parameters: ', results.params) # 輸出:擬合模型的係數
# 繪圖:原始資料點,擬合曲線,置信區間
prstd, ivLow, ivUp = wls_prediction_std(results) # 返回標準偏差和置信區間
fig, ax = plt.subplots(figsize=(10, 8))
ax.plot(x1, yTest, 'o', label="data") # 實驗資料(原始資料+誤差)
ax.plot(x1, yTrue, 'b-', label="True") # 原始資料
ax.plot(x1, yFit, 'r-', label="OLS") # 擬合資料
ax.plot(x1, ivUp, '--',color='orange', label="ConfInt") # 置信區間 上屆
ax.plot(x1, ivLow, '--',color='orange') # 置信區間 下屆
ax.legend(loc='best') # 顯示圖例
plt.xlabel('x')
plt.ylabel('y')
plt.show()
return
if __name__ == '__main__':
main()
4.2 多元線性迴歸 程式執行結果:
OLS Regression Results
==============================================================================
Dep. Variable: y R-squared: 0.932
Model: OLS Adj. R-squared: 0.930
Method: Least Squares F-statistic: 440.0
Date: Thu, 06 May 2021 Prob (F-statistic): 6.04e-56
Time: 10:38:51 Log-Likelihood: -68.709
No. Observations: 100 AIC: 145.4
Df Residuals: 96 BIC: 155.8
Df Model: 3
Covariance Type: nonrobust
==============================================================================
coef std err t P>|t| [0.025 0.975]
------------------------------------------------------------------------------
const 5.0411 0.120 41.866 0.000 4.802 5.280
x1 0.4894 0.019 26.351 0.000 0.452 0.526
x2 0.5158 0.072 7.187 0.000 0.373 0.658
x3 -0.0195 0.002 -11.957 0.000 -0.023 -0.016
==============================================================================
Omnibus: 1.472 Durbin-Watson: 1.824
Prob(Omnibus): 0.479 Jarque-Bera (JB): 1.194
Skew: 0.011 Prob(JB): 0.551
Kurtosis: 2.465 Cond. No. 223.
==============================================================================
OLS model: Y = b0 + b1*X + ... + bm*Xm
Parameters: [ 5.04111867 0.4893574 0.51579806 -0.01951219]
5、附錄:迴歸結果詳細說明
Dep.Variable: y 因變數
Model:OLS 最小二乘模型
Method: Least Squares 最小二乘
No. Observations: 樣本資料的數量
Df Residuals:殘差自由度(degree of freedom of residuals)
Df Model:模型自由度(degree of freedom of model)
Covariance Type:nonrobust 協方差陣的穩健性
R-squared:R 判定係數
Adj. R-squared: 修正的判定係數
F-statistic: 統計檢驗 F 統計量
Prob (F-statistic): F檢驗的 P值
Log likelihood: 對數似然
coef:自變數和常數項的係數,b1,b2,...bm,b0
std err:係數估計的標準誤差
t:統計檢驗 t 統計量
P>|t|:t 檢驗的 P值
[0.025, 0.975]:估計引數的 95%置信區間的下限和上限
Omnibus:基於峰度和偏度進行資料正態性的檢驗
Prob(Omnibus):基於峰度和偏度進行資料正態性的檢驗概率
Durbin-Watson:檢驗殘差中是否存在自相關
Skewness:偏度,反映資料分佈的非對稱程度
Kurtosis:峰度,反映資料分佈陡峭或平滑程度
Jarque-Bera(JB):基於峰度和偏度對資料正態性的檢驗
Prob(JB):Jarque-Bera(JB)檢驗的 P值。
Cond. No.:檢驗變數之間是否存在精確相關關係或高度相關關係。
版權說明:
YouCans 原創作品
Copyright 2021 YouCans, XUPT
Crated:2021-05-05