線性迴歸(Linear Regression)演算法優缺點
# 線性迴歸(Linear Regression)演算法優缺點 #
I.Vanilla Linear Regressio
優點
善於獲取資料集中的線性關係;
適用於在已有了一些預先定義好的變數並且需要一個簡單的預測模型的情況下使用;
訓練速度和預測速度較快;
在小資料集上表現很好;
結果可解釋,並且易於說明;
當新增資料時,易於更新模型;
不需要進行引數調整(下面的正則化線性模型需要調整正則化引數);
不需要特徵縮放(下面的正則化線性模型需要特徵縮放);
如果資料集具有冗餘的特徵,那麼線性迴歸可能是不穩定的;
缺點
不適用於非線性資料;
預測精確度較低;
可能會出現過度擬合(下面的正則化模型可以抵消這個影響);
分離訊號和噪聲的效果不理想,在使用前需要去掉不相關的特徵;
不瞭解資料集中的特徵互動;
II. Lasso迴歸, Ridge迴歸, Elastic-Net迴歸
優點
這些模型是正則化的線性迴歸模型;
有助於防止過度擬合;
這些模型更善於正則化,因為它們更簡單;
適用於當我們只關心幾個特徵的時候;
缺點
需要特徵縮放;
需要調整正則化引數;
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2676822/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 通俗理解線性迴歸(Linear Regression)
- 機器學習-----線性迴歸淺談(Linear Regression)機器學習
- 迴歸樹(Regression Trees)模型的優缺點模型
- 大資料分析筆記 (4.1) - 線性迴歸分析(Linear Regression)大資料筆記
- 線性迴歸——lasso迴歸和嶺迴歸(ridge regression)
- 線性迴歸演算法演算法
- 【深度學習基礎-13】非線性迴歸 logistic regression深度學習
- 迴歸樹(Regression Tree)
- 簡明線性迴歸演算法演算法
- 線性迴歸
- 線性迴歸與邏輯迴歸邏輯迴歸
- 03 迴歸演算法 - 線性迴歸求解 θ(最小二乘求解)演算法
- 1.3 - 線性迴歸
- Machine Learning (1) - Linear RegressionMac
- 線性迴歸演算法學習總結演算法
- 預測演算法之多元線性迴歸演算法
- 4.邏輯迴歸(Logistic Regression)邏輯迴歸
- 線性迴歸推導
- 4-線性迴歸
- 線性迴歸實戰
- 1維線性迴歸
- 線性迴歸總結
- 多元線性迴歸模型模型
- 對比線性迴歸、邏輯迴歸和SVM邏輯迴歸
- python實現線性迴歸之簡單迴歸Python
- WEKA把分類(Classification)和迴歸(Regression)
- MySQL MHA工具的優缺點歸納MySql
- 手擼機器學習演算法 - 線性迴歸機器學習演算法
- spark-mlib線性迴歸Spark
- pytorch實現線性迴歸PyTorch
- TensorFlow實現線性迴歸
- 線性迴歸-程式碼庫
- PRML 迴歸的線性模型模型
- 資料分析:線性迴歸
- Kmeans演算法優缺點演算法
- R:alpha多樣性線性迴歸
- 機器學習 | 線性迴歸與邏輯迴歸機器學習邏輯迴歸
- 線性迴歸—求解介紹及迴歸擴充套件套件