虛擬變數回歸(Dummy Variable Regression)是處理分類變數的標準工具,在迴歸分析中具有廣泛應用。分類變數通常是定性變數,例如性別(男/女)、地區(東/西)、行業(製造/服務)等。這些變數無法直接用於傳統的線性迴歸模型中,但可以透過建立虛擬變數將它們轉化為數值形式,從而納入模型。虛擬變數回歸中有兩種常見的模型型別:加法模型和乘法模型。在加法模型中,虛擬變數直接新增到迴歸方程中,其係數代表某個類別對因變數的平均影響。比如在性別對工資的研究中,性別虛擬變數的係數可以反映女性相對於男性的平均工資差異。在乘法模型中,虛擬變數和其他連續變數的乘積項構成了互動項,用於估計不同類別與其他變數的互動效應。這使我們能夠研究諸如“性別如何調節教育年限對工資的影響”這樣更復雜的關係。這種方法廣泛應用於社會科學、經濟學等領域,有助於揭示不同類別對被解釋變數的差異性影響。
一、虛擬變數回歸模型
在構建迴歸模型時,如果自變數X為連續性變數,迴歸係數β可以解釋為:在其他自變數不變的條件下,X每改變一個單位,所引起的因變數Y的平均變化量;如果自變數X為二分類變數,例如是否飲酒(1=是,0=否),則迴歸係數β可以解釋為:其他自變數不變的條件下,X=1(飲酒者)與X=0(不飲酒者)相比,所引起的因變數Y的平均變化量。但是,當自變數X為多分類變數時,例如職業、學歷、血型、疾病嚴重程度等等,此時僅用一個迴歸係數來解釋多分類變數之間的變化關係,及其對因變數的影響,就顯得太不理想。此時,我們通常會將原始的多分類變數轉化為啞變數,每個啞變數只代表某兩個級別或若干個級別間的差異,透過構建迴歸模型,每一個啞變數都能得出一個估計的迴歸係數,從而使得迴歸的結果更易於解釋,更具有實際意義。
啞變數(Dummy Variable),又稱為虛擬變數、虛設變數或名義變數,從名稱上看就知道,它是人為虛設的變數,通常取值為0或1,來反映某個變數的不同屬性。對於有n個分類屬性的自變數,通常需要選取1個分類作為參照,因此可以產生n-1個啞變數。將啞變數引入迴歸模型,雖然使模型變得較為複雜,但可以更直觀地反映出該自變數的不同屬性對於因變數的影響,提高了模型的精度和準確度。
1.1 加法模型
加法模型將分類變數直接轉換為虛擬變數並新增到迴歸方程中。其目的是觀察分類變數(例如性別、地區、教育水平等)對被解釋變數(如收入、價格等)的線性影響。假設我們有一個虛擬變數 \(D\),它表示兩個類別中的一個,例如,\(D=1\) 代表女性,\(D=0\) 代表男性。假設我們還考慮了其他連續變數,如受教育年數 \(educ\) 和工作經驗 \(exper\)。加法模型的形式為:
其中:
- \(Y\) 是被解釋變數(如工資);
- \(β0\) 是截距,表示男性(即 \(D=0\))的基準工資;
- \(β1\) 是性別虛擬變數的係數,它表示女性相對於男性的工資差異;
- \(β2\) 和 \(β3\) 分別是受教育年數和工作經驗的係數,表示這兩個連續變數對工資的影響;
- \(ε\) 是誤差項。
在這個模型中,如果 \(β1<0\),則表明女性的工資低於男性。這種方式透過虛擬變數將分類變數的影響線性新增到模型中。因此,虛擬變數的估計值代表了特定類別對被解釋變數的平均效應。
我們可以擴充套件這個模型來處理多個類別的情況。例如,如果有多個地區,我們可以為每個地區建立一個虛擬變數組。這時,模型的結構為:
其中 \(D1, D2, …, Dk\) 是代表不同地區的虛擬變數,而 \(X1, …, Xn\) 是其他連續變數。我們需要注意的是,必須捨棄一個類別的虛擬變數,以避免虛擬變數陷阱(dummy variable trap),即完全共線性問題。
1.2 乘法模型(互動模型)
乘法模型,也稱為互動模型,透過虛擬變數與連續變數的乘積項,估計不同類別對其他變數的互動影響。該模型不僅考慮類別對被解釋變數的影響,還考慮類別與其他變數之間的相互作用。
假設我們想研究性別與受教育年數之間的互動作用。可以構造一個互動項 \(D×educ\),即虛擬變數與連續變數的乘積項。乘法模型的形式為:
其中,\(β4\) 表示性別與受教育年數的互動效應。換句話說,\(β4\) 告訴我們女性與男性相比,受教育年數對工資的影響是否不同。如果 \(β4≠0\),則表明存在顯著的互動效應。
我們可以透過乘法模型來估計虛擬變數與多個連續變數的互動效應。例如,如果我們還想研究性別與工作經驗的互動作用,模型可以擴充套件為:
在這個模型中,\(β4\) 表示性別與受教育年數的互動作用,\(β5\) 表示性別與工作經驗的互動作用。透過這些互動項,我們能夠更全面地瞭解不同類別在不同條件下對被解釋變數的影響。
二、迴歸引數估計與檢驗
在虛擬變數回歸(Dummy Variable Regression)中,估計和假設檢驗是非常關鍵的步驟。無論是加法模型還是乘法模型,估計虛擬變數係數以及檢驗其顯著性,都能夠為分類資料的分析提供強有力的工具。下面將詳細介紹虛擬變數回歸中關於係數估計、假設檢驗和模型選擇的詳細過程,並擴充套件相關統計量的使用。
2.1 係數的估計
在虛擬變數回歸模型中,無論是加法模型還是乘法模型,最常用的估計方法是最小二乘法(OLS,Ordinary Least Squares)。OLS透過最小化殘差平方和來估計每個迴歸係數,使得模型對資料的擬合達到最佳狀態。OLS估計有以下幾個步驟:
- 最小化殘差平方和:對於每一個觀測資料,OLS透過最小化實際值與預測值的平方差,確保模型儘可能貼合資料。虛擬變數回歸中,虛擬變數的係數透過OLS估計來反映不同類別對被解釋變數的影響。
- 加法模型中的係數解釋:加法模型中的虛擬變數係數直接反映了類別效應。例如,假設模型為:\[y_i = \beta_0 + \beta_1 D_1 + \beta_2 X_1 + \epsilon_i \]其中,\(D_1\)是一個虛擬變數,表示某個類別(如性別、地區等)。此時,\(\beta_1\) 表示虛擬變數類別1對被解釋變數$y_i $的平均影響。
- 乘法模型中的係數解釋:在乘法模型中,虛擬變數與其他解釋變數的乘積項代表互動效應。例如,模型為:\[y_i = \beta_0 + \beta_1 D_1 + \beta_2 X_1 + \beta_3 D_1 \times X_1 + \epsilon_i \]此時,\(\beta_3\)表示類別1與\(X_1\)變數之間的互動效應,意味著類別1對\(X_1\)對\(y_i\)的影響方式不同於其他類別。
- OLS估計公式:OLS估計迴歸係數的公式為:\[\hat{\beta} = (X'X)^{-1} X'Y \]其中,\(X\)是解釋變數矩陣,\(Y\)是被解釋變數向量,\(\hat{\beta}\)是係數的估計值。
2.2 假設檢驗
虛擬變數回歸中的假設檢驗旨在驗證模型中的係數是否顯著不同於零,這可以透過 t 檢驗和 F 檢驗來完成。
- t檢驗
t檢驗用於檢驗每個迴歸係數的顯著性。假設檢驗的原假設為該係數等於零,即虛擬變數或互動項對被解釋變數沒有顯著影響。t檢驗的統計量公式為:
其中,\(\hat{\beta}_i\)是迴歸係數的估計值,$SE(\hat{\beta}_i) \(是該係數的標準誤差。根據這個統計量,我們可以計算\)p\(值。如果\)p$值小於顯著性水平(通常為0.05),我們就可以拒絕原假設,認為該係數顯著不為零。
- F檢驗
F檢驗通常用於檢驗多個迴歸係數的聯合顯著性。它可以用於虛擬變數組的聯合顯著性檢驗,或者在乘法模型中檢驗所有互動項的聯合顯著性。F檢驗的統計量計算公式為:
其中,( RSS_r ) 是受約束模型的殘差平方和,( RSS_{ur} ) 是無約束模型的殘差平方和,( q ) 是受約束模型的約束個數,( n ) 是樣本數,( k ) 是無約束模型的解釋變數個數。F檢驗可以用來判斷虛擬變數組是否對模型有顯著貢獻。
- p值和顯著性水平
無論是 t 檢驗還是 F 檢驗,檢驗結果的顯著性都透過 p 值衡量。p 值表示在原假設為真的情況下,觀測到當前資料的機率。如果 p 值小於設定的顯著性水平(通常為0.05),則我們認為該回歸係數或虛擬變數組對模型有顯著影響。
1.3 模型選擇與解釋
在虛擬變數回歸模型中,模型選擇至關重要。我們可以透過調整後的R²(Adjusted R²)和AIC、BIC等資訊準則來評估模型的擬合優度。
- 加法模型的應用
加法模型適用於分析類別變數的獨立效應。該模型直接估計不同類別對被解釋變數的平均影響。適用場景包括性別、地區、行業等分類變數的迴歸分析。例如,我們可以透過加法模型來分析男性與女性之間工資差異的平均水平。 - 3.2 乘法模型的應用
乘法模型適用於研究類別變數與連續變數之間的互動效應。該模型能夠揭示不同類別如何影響其他解釋變數對因變數的影響。例如,透過性別與教育年限的互動項,可以研究性別是否改變教育對工資的影響。 - 模型的優選與解釋力
透過調整後的R²,我們可以評估模型的解釋力。調整後的R²修正瞭解釋變數個數對模型擬合優度的影響,能夠更好地衡量模型的真實表現。如果乘法模型的互動項顯著提高了調整後的R²,說明互動效應對解釋因變數的變動具有重要貢獻。
此外,資訊準則如AIC和BIC也常用於模型的選擇。較小的AIC或BIC值表示模型更優。
虛擬變數回歸提供了靈活處理分類變數的工具。加法模型可以捕捉類別的平均效應,而乘法模型則能研究互動效應的複雜關係。透過t檢驗和F檢驗,我們能夠判斷虛擬變數及互動項的顯著性,並結合調整後的R²等準則進行模型選擇。
三、虛擬變數回歸中問題
虛擬變數回歸(Dummy Variable Regression)作為一種處理分類變數的迴歸方法,具有廣泛的應用,但同時也面臨一些問題和挑戰。隨著統計方法的不斷髮展,虛擬變數回歸在理論和應用上也經歷了諸多改進和擴充套件。
多重共線性問題
在虛擬變數回歸中,多重共線性(Multicollinearity)是一個常見問題。多重共線性指的是當迴歸模型中解釋變數高度相關時,迴歸係數的估計值不穩定,導致迴歸模型難以準確估計係數的真實影響。在虛擬變數回歸中,如果多個虛擬變數互相相關,模型中的係數估計值可能會非常敏感,導致解釋困難。解決方法通常是刪除其中的一個虛擬變數或透過正則化技術(如嶺迴歸)來降低共線性的影響。
虛擬變數陷阱(Dummy Variable Trap)
虛擬變數回歸中還存在所謂的虛擬變數陷阱(Dummy Variable Trap),即當所有類別的虛擬變數都被包含在迴歸方程中時,會導致模型出現完全共線性,從而無法估計迴歸係數。這是由於虛擬變數之間的線性相關性。例如,假設我們有三個類別\(A,B,C\),如果我們引入三個虛擬變數來表示這些類別,那麼它們之間必然存線上性關係:\(A+B+C=1\)。為避免虛擬變數陷阱,我們通常會將其中一個類別作為基準類別,不在模型中顯式加入該類別的虛擬變數。
互動項的複雜性
在虛擬變數回歸的乘法模型中,虛擬變數與連續變數的互動項能夠捕捉複雜的互動效應。然而,隨著模型中的互動項增多,模型的解釋難度也隨之增加。高維互動效應可能會導致模型變得過於複雜,進而引發過擬合問題。為避免此類問題,研究者可以使用模型選擇準則(如AIC或BIC)來確定最優的模型複雜度,或者使用正則化方法來控制過擬合的風險。
非線性問題
虛擬變數回歸通常假設類別對被解釋變數的影響是線性的。然而,在許多實際應用中,類別變數對被解釋變數的影響並不是線性關係。例如,性別對工資的影響可能隨年齡變化呈現非線性關係。為應對非線性問題,研究者可以引入非線性模型(如邏輯迴歸或多項式迴歸)或者透過其他非線性變換對虛擬變數進行處理。
異方差性
異方差性是迴歸模型中常見的問題,尤其是在虛擬變數回歸中,不同類別可能具有不同的方差。例如,男性和女性的收入分佈可能不同,這導致虛擬變數回歸模型中存在異方差性。異方差性會使得OLS估計不再是最優估計,標準誤差的估計值也可能不準確,從而影響統計檢驗的結果。解決異方差性問題的一個常用方法是使用異方差一致標準誤差(如白皮書標準誤差,White's standard errors),從而獲得更加穩健的係數估計。
模型的選擇與複雜度權衡
在模型選擇方面,虛擬變數回歸模型可能會面臨過度擬合與欠擬合之間的權衡問題。過多的虛擬變數和互動項可能導致模型過於複雜,難以解釋和推廣;而過少的虛擬變數則可能遺漏重要的類別效應。為此,模型選擇準則(如AIC、BIC)以及交叉驗證技術被廣泛用於尋找最佳的平衡點。研究者需要根據具體的研究問題和資料特點,合理選擇虛擬變數和互動項,以獲得既簡潔又具有良好解釋力的模型。
時間序列中的虛擬變數
在時間序列分析中,虛擬變數常用於表示特定事件的發生或不同時間段之間的效應差異。例如,金融危機或政策變動可以透過引入虛擬變數來捕捉其對經濟指標的影響。然而,在時間序列迴歸中,虛擬變數的使用需要特別小心,以避免因虛擬變數的引入導致時間序列自相關結構的忽略。因此,虛擬變數在時間序列中的使用往往伴隨著更加複雜的動態模型(如ARIMA模型)以確保模型的動態特性得到合理刻畫。
未來發展方向
隨著大資料和機器學習的發展,虛擬變數回歸的應用也在不斷擴充套件。例如,在高維資料分析中,虛擬變數的處理變得更加複雜,傳統的迴歸方法可能無法處理大量的類別變數。為此,研究者開發了諸如Lasso迴歸、樹模型等新型方法來處理虛擬變數,尤其是在高維資料中具有顯著優勢。此外,隨著貝葉斯統計方法的普及,虛擬變數回歸也開始應用貝葉斯估計方法來處理小樣本或不確定性較大的資料。
四、案例分析
某調查機構收集的教育年限educ、工作年限exper、性別gender和工資wage的資料,如下表所示。試建立迴歸方程,考察性別對工資的影響。
ID | educ | exper | gender | wage | ID | educ | exper | gender | wage |
---|---|---|---|---|---|---|---|---|---|
0 | 16 | 25 | 0 | 9.11 | 15 | 14 | 9 | 1 | 5.54 |
1 | 13 | 3 | 1 | 6.23 | 16 | 11 | 26 | 1 | 4.74 |
2 | 17 | 5 | 1 | 7.51 | 17 | 17 | 21 | 1 | 7.77 |
3 | 14 | 19 | 1 | 5.76 | 18 | 15 | 2 | 1 | 5.59 |
4 | 16 | 7 | 1 | 5.00 | 19 | 11 | 20 | 1 | 5.06 |
5 | 19 | 21 | 1 | 9.45 | 20 | 14 | 28 | 1 | 5.69 |
6 | 12 | 9 | 1 | 3.33 | 21 | 10 | 15 | 1 | 2.38 |
7 | 16 | 7 | 1 | 6.00 | 22 | 19 | 28 | 0 | 11.95 |
8 | 17 | 18 | 1 | 7.40 | 23 | 15 | 7 | 1 | 7.14 |
9 | 14 | 4 | 1 | 4.94 | 24 | 18 | 12 | 0 | 8.09 |
10 | 13 | 25 | 1 | 3.69 | 25 | 10 | 29 | 1 | 4.21 |
11 | 17 | 28 | 1 | 6.94 | 26 | 19 | 8 | 1 | 6.30 |
12 | 17 | 14 | 0 | 10.05 | 27 | 12 | 15 | 0 | 7.22 |
13 | 12 | 18 | 0 | 6.92 | 28 | 16 | 3 | 1 | 5.46 |
14 | 15 | 26 | 1 | 7.18 | 29 | 13 | 14 | 0 | 7.50 |
import numpy as np
import pandas as pd
import statsmodels.api as sm
# 隨機生成資料
np.random.seed(42) # 設定隨機種子
n = 30 # 樣本大小
# 生成教育年數(educ),工作經驗(exper)和性別(gender,1為女性,0為男性)
educ = np.random.randint(10, 20, size=n) # 教育年數(10-20年)
exper = np.random.randint(1, 30, size=n) # 工作經驗(1-30年)
gender = np.random.randint(0, 2, size=n) # 性別(0=男性,1=女性)
# 假設工資(wage)與教育年數、工作經驗、性別之間存在關係(加噪音)
wage = -1.5 + 0.6 * educ + 0.03 * exper - 1.8 * gender + np.random.normal(0, 1, size=n)
# 構建資料框
data = pd.DataFrame({
'educ': educ,
'exper': exper,
'gender': gender,
'wage': wage
})
# 顯示資料
print(data.head())
# 構建迴歸模型——加法模型(教育年數、工作經驗、性別)
X_add = sm.add_constant(data[['educ', 'exper', 'gender']]) # 加入常數項
model_add = sm.OLS(data['wage'], X_add).fit()
# 輸出迴歸結果——加法模型
print("加法模型迴歸結果:")
print(model_add.summary())
# 構建乘法模型,加入互動項(教育年數 * 性別)
data['educ_gender'] = data['educ'] * data['gender'] # 互動項:教育年數 * 性別
X_mult = sm.add_constant(data[['educ', 'exper', 'gender', 'educ_gender']]) # 加入常數項
model_mult = sm.OLS(data['wage'], X_mult).fit()
# 輸出迴歸結果——乘法模型
print("乘法模型迴歸結果:")
print(model_mult.summary())
# 輸出加法模型的迴歸方程
print("\n加法模型迴歸方程:")
print(f'wage = {model_add.params[0]:.2f} + {model_add.params[1]:.2f}*educ + {model_add.params[2]:.2f}*exper + {model_add.params[3]:.2f}*gender')
# 輸出乘法模型的迴歸方程
print("\n乘法模型迴歸方程:")
print(f'wage = {model_mult.params[0]:.2f} + {model_mult.params[1]:.2f}*educ + {model_mult.params[2]:.2f}*exper + {model_mult.params[3]:.2f}*gender + {model_mult.params[4]:.2f}*educ*gender')
加法模型迴歸結果:
OLS Regression Results
==============================================================================
Dep. Variable: wage R-squared: 0.810
Model: OLS Adj. R-squared: 0.788
Method: Least Squares F-statistic: 36.85
Date: Sat, 19 Oct 2024 Prob (F-statistic): 1.64e-09
Time: 07:40:41 Log-Likelihood: -38.610
No. Observations: 30 AIC: 85.22
Df Residuals: 26 BIC: 90.83
Df Model: 3
Covariance Type: nonrobust
==============================================================================
coef std err t P>|t| [0.025 0.975]
------------------------------------------------------------------------------
const 0.1020 1.183 0.086 0.932 -2.329 2.533
educ 0.5113 0.067 7.641 0.000 0.374 0.649
exper 0.0430 0.020 2.131 0.043 0.002 0.084
gender -2.3889 0.415 -5.752 0.000 -3.243 -1.535
==============================================================================
Omnibus: 0.505 Durbin-Watson: 2.266
Prob(Omnibus): 0.777 Jarque-Bera (JB): 0.588
Skew: -0.265 Prob(JB): 0.745
Kurtosis: 2.565 Cond. No. 156.
==============================================================================
乘法模型迴歸結果:
OLS Regression Results
==============================================================================
Dep. Variable: wage R-squared: 0.810
Model: OLS Adj. R-squared: 0.780
Method: Least Squares F-statistic: 26.65
Date: Sat, 19 Oct 2024 Prob (F-statistic): 1.07e-08
Time: 07:40:41 Log-Likelihood: -38.573
No. Observations: 30 AIC: 87.15
Df Residuals: 25 BIC: 94.15
Df Model: 4
Covariance Type: nonrobust
===============================================================================
coef std err t P>|t| [0.025 0.975]
-------------------------------------------------------------------------------
const 0.5269 2.080 0.253 0.802 -3.758 4.812
educ 0.4823 0.135 3.583 0.001 0.205 0.759
exper 0.0441 0.021 2.099 0.046 0.001 0.087
gender -2.9842 2.414 -1.236 0.228 -7.956 1.988
educ_gender 0.0397 0.158 0.250 0.804 -0.287 0.366
==============================================================================
Omnibus: 0.351 Durbin-Watson: 2.239
Prob(Omnibus): 0.839 Jarque-Bera (JB): 0.485
Skew: -0.211 Prob(JB): 0.785
Kurtosis: 2.542 Cond. No. 437.
==============================================================================
加法模型迴歸方程:
wage = 0.10 + 0.51educ + 0.04exper + -2.39gender
乘法模型迴歸方程:
wage = 0.53 + 0.48educ + 0.04exper + -2.98gender + 0.04educgender
在加法模型 和 乘法模型迴歸結果中,主要反映了教育年數(educ)、工作經驗(exper)和性別(gender)對工資(wage)的影響。下面對結果進行分析解釋。
加法模型迴歸結果解釋。
迴歸方程:
wage = 0.10 + 0.51educ + 0.04exper - 2.39*gender
係數解釋:
const (截距):常數項為 0.10,表示當 educ、exper 和 gender 為 0 時的預期工資。
educ 的係數為 0.51,表示教育年數每增加一年,工資將增加 0.51 單位。
exper 的係數為 0.04,表示工作經驗每增加一年,工資將增加 0.04 單位。
gender 的係數為 -2.39,表示性別為女性(gender=1)時,相對於男性(gender=0),工資平均減少 2.39 個單位。
模型統計量:
R-squared 為 0.810,表明模型解釋了 81% 的工資波動。
F-statistic 為 36.85,且 p 值接近 0(1.64e-09),說明整體模型顯著。
各系數的 t 值與 p 值:
educ 和 exper 的係數 p 值都很小,說明它們顯著不同於 0,對工資具有顯著影響。性別的係數 t 值也很大,p 值為 0,表明性別對工資的負面影響顯著。
乘法模型迴歸結果解釋。
迴歸方程:
wage = 0.53 + 0.48educ + 0.04exper - 2.98gender + 0.04educ*gender
係數解釋:
educ 和 exper 的係數與加法模型相似,表示教育年數和工作經驗對工資的正向影響。
gender 的係數為 -2.98,表示女性工資相比男性平均減少 2.98 單位。
互動項 educ_gender 的係數為 0.04,表示性別與教育年數之間存在互動效應,但 p 值為 0.804,表明該互動效應不顯著。
模型統計量:
R-squared 為 0.810,與加法模型一致,說明兩種模型在解釋工資波動方面具有相似的解釋力。
互動項 educ_gender 的 t 值較低,p 值為 0.804,說明互動項對工資的影響不顯著,意味著性別與教育年數的共同作用並沒有帶來顯著的工資變化。
加法模型 表明教育、經驗和性別對工資的直接影響,模型中的性別變數表明女性工資比男性低,這一效應在模型中顯著。
乘法模型 中雖然考慮了性別與教育年數的互動作用,但該互動項並不顯著,意味著教育年數對男性和女性的工資影響相似。
模型選擇:由於互動項不顯著,可能加法模型已經足夠解釋工資的變動,乘法模型的複雜性在這種情況下可能沒有帶來更多的解釋力。
總結
虛擬變數回歸(Dummy Variable Regression)是一種用於處理定性分類變數的標準工具,在實際應用中,虛擬變數將非數值的分類資料轉換為可用於迴歸模型的數值形式,從而研究不同類別對因變數的影響。虛擬變數回歸模型通常採用兩種形式:加法模型和乘法模型。加法模型中,虛擬變數被直接新增到迴歸方程中,其係數表示不同類別對因變數的平均影響。法模型則用於研究類別變數與其他連續變數之間的互動效應。在這種模型中,虛擬變數與其他解釋變數的乘積項(互動項)可以捕捉不同類別與這些變數的複雜關係。透過最小二乘法(OLS),我們可以估計模型中的引數,並透過假設檢驗評估虛擬變數對模型結果的顯著性。這種方法在迴歸分析中至關重要,因為它能夠靈活地處理複雜的分類資訊,幫助我們識別不同類別的特定效應以及類別間的互動關係。這對於分析經濟學中的工資結構、社會研究中的教育差異等問題具有重要意義。
參考資料
20220429_虛擬變數的迴歸分析