哪個才是解決迴歸問題的最佳演算法?線性迴歸、神經網路還是隨機森林?
編譯 | AI科技大本營
參與 | 王珂凝
編輯 | 明 明
【AI科技大本營導讀】現在,不管想解決什麼型別的機器學習(ML)問題,都會有各種不同的演算法可以供你選擇。儘管在一定程度上,一種演算法並不能總是優於另外一種演算法,但是可以將每種演算法的一些特性作為快速選擇最佳演算法和調整超引數的準則。
本文,我們將展示幾個著名的用於解決迴歸問題的機器學習演算法,並根據它們的優缺點設定何時使用這一準則。尤其在為迴歸問題選擇最佳機器學習演算法上,本文將會為你提供一個重要的引導!
▌線性迴歸和多項式迴歸
線性迴歸
從簡單的情況開始,單變數線性迴歸使用線性模型為單個輸入自變數(特徵變數)和輸出因變數建立關係模型。更為一般的情況是多變數線性迴歸,它為多個獨立的輸入自變數(特徵變數)與輸出因變數之間建立關係模型,該模型始終為線性,這是因為輸出變數是輸入變數的線性組合。
第三種最常見的情況是多項式迴歸,該模型是特徵變數的非線性組合,例如:指數變數,正弦和餘弦等。然而,這需要了解資料是如何與輸出相關的。我們可以使用隨機梯度下降(SGD)對迴歸模型進行訓練。
優點
可以快速建模,特別適用於所要建模的關係不是特別複雜並且資料量不大。
線性迴歸簡單且易於理解,有利於商業決策。
缺點
對於非線性資料進行多項式迴歸設計可能比較困難,因為必須具有特徵變數之間關係和資料結構的一些資訊。
由於上述原因,當涉及到資料複雜度較高時,這些模型的效能不如其他模型。
▌神經網絡
神經網路
神經網路是由一組相互連線的節點組成,這些節點被稱為神經元。資料中的輸入特徵變數作為多變數線性組合被傳遞給這些神經元,其中乘以每個特徵變數的值被稱為權重。然後將非線性應用於該線性組合,從而為神經網路對複雜的非線性關係進行建模。神經網路可以有多個層,其中每一層的輸出傳遞給下一層的方式都是相同的。輸出端通常不會使用非線性。我們可以使用隨機梯度下降(SGD)和反向傳播演算法對神經網路進行訓練,這兩種演算法均顯示在上面的動態GIF圖中。
優點
由於神經網路可以有多個非線性的層(和引數),因此對非常適合對比較複雜的非線性關係建模。
神經網路中的資料結構基本上對學習任何型別的特徵變數關係都非常靈活。
研究表明,為網路提供更多的訓練資料(不管是增加全新的資料集還是對原始資料集進行擴張)可以提高網路效能。
設定也有利於提高網路效能。
缺點
這些模型較複雜,因此不太容易被理解。
網路的訓練可能非常具有挑戰性和計算密集性,需要對超引數進行微調並設定學習率表。
網路的高效能需要大量的資料來實現,在“少量資料”情況下通常不如其他機器學習演算法的效能。
▌迴歸樹和隨機森林
隨機森林
決策樹是一種直觀的模型,它通過遍歷樹的分支並根據節點的決策選擇下一個分支進行遍歷。決策樹歸納法(Decision Tree Induction)將一組訓練例項作為輸入,確定哪些屬性最適合分割,並對資料集進行分割,在分割後的資料集上進行迴圈,直到對所有訓練例項都被分類為止,任務結束。
構建決策樹旨在分割可能建立純度子節點的屬性,這將會盡可能的減少對資料集中的所有例項進行分類所需要的分割次數。純度是通過資訊增益來衡量的,這涉及到為了進行正確的分類而需要知道有多少以前沒有的例項。在實際應用中,這通過比較熵或者將當前資料集分割槽的單個例項分類所需的資訊的量來衡量,即若當前的資料集分割槽在給定的屬性上被進一步劃分的話,就可以對單個例項進行分類。
隨機森林是一個簡單的決策樹的集合,輸入向量在多個決策樹上執行。對於迴歸問題,所有決策樹的輸出值都是平均的;對於分類問題,使用一個投票方案來確定最終的類別。
優點:
善於學習複雜且高度非線性的關係,通常可以具有很高的效能,其效能優於多項式迴歸,並且通常與神經網路的效能相當。
非常便於理解,雖然最終的訓練模型可以學習較為複雜的關係,但是在訓練過程中建立的決策邊界很容易理解。
缺點:
由於訓練決策樹的性質,可能很容易出現重大的過度擬合。完整的決策樹模型可能過於複雜並且包含不必要的結構。有時可以通過適當的樹木修剪和較大的隨機森林合奏來緩解這種情況。
使用較大的隨機森林合奏來獲得更高的效能,會使速度變慢,並且需要更多的記憶體。
▌結語
機器學習中有一種定理叫做“沒有免費的午餐”:並不存在一個能夠解決所有問題的機器學習演算法。機器學習演算法的效能在很大程度上依賴於資料大小和資料結構。因此,我們可以通過簡單的實驗和判斷來測試所選擇是否為最佳演算法。
作者:George Seif
原文網址:
https://towardsdatascience.com/selecting-the-best-machine-learning-algorithm-for-your-regression-problem-20c330bad4ef
精彩推薦
今天是3.8女神節,AI科技大本營編輯部祝各位女神節日快樂!勇攀高峰!
叮咚,在這個特殊的日字,我們已經幫你想好了送給女神/女友最好的節日禮物,那就是助她成為"全能設計師”!高薪又搶手,掃碼聯絡老師。各位關注AI科技大本營的程式設計師同學們,拿下女神關愛女友就看你們啦~啦!
AI科技大本營使用者群(計算機視覺、機器學習、深度學習、NLP、Python、AI硬體、AI+金融方向)正在招募中,後臺回覆:讀者群,聯絡營長,新增營長請備註姓名,研究方向。
☟☟☟點選 | 閱讀原文 | 檢視課程詳情相關文章
- torch神經網路--線性迴歸神經網路
- 機器學習簡介之基礎理論- 線性迴歸、邏輯迴歸、神經網路機器學習邏輯迴歸神經網路
- 03_利用pytorch解決線性迴歸問題PyTorch
- 迴圈神經網路LSTM RNN迴歸:sin曲線預測神經網路RNN
- 隨機森林VS神經網路:哪個更好?隨機森林神經網路
- 線性迴歸——lasso迴歸和嶺迴歸(ridge regression)
- (二)神經網路入門之Logistic迴歸(分類問題)神經網路
- 線性迴歸演算法演算法
- 線性迴歸與邏輯迴歸邏輯迴歸
- 演算法金 | 線性迴歸:不能忽視的五個問題演算法
- 線性迴歸
- 機器學習 | 線性迴歸與邏輯迴歸機器學習邏輯迴歸
- 1.3 - 線性迴歸
- 03 迴歸演算法 - 線性迴歸求解 θ(最小二乘求解)演算法
- Python TensorFlow深度神經網路迴歸:keras.SequentialPython神經網路Keras
- 簡明線性迴歸演算法演算法
- 對比線性迴歸、邏輯迴歸和SVM邏輯迴歸
- python實現線性迴歸之簡單迴歸Python
- 機器學習:線性迴歸機器學習
- PRML 迴歸的線性模型模型
- 線性迴歸推導
- 4-線性迴歸
- 線性迴歸實戰
- 1維線性迴歸
- 線性迴歸總結
- 多元線性迴歸模型模型
- Pytorch——迴歸問題PyTorch
- 線性迴歸—求解介紹及迴歸擴充套件套件
- 線性迴歸-如何對資料進行迴歸分析
- 為你的迴歸問題選擇最佳機器學習演算法機器學習演算法
- (一)線性迴圈神經網路(RNN)神經網路RNN
- 機器學習之線性迴歸機器學習
- 機器學習:線性迴歸(下)機器學習
- 機器學習整理(線性迴歸)機器學習
- TensorFlow.NET機器學習入門【3】採用神經網路實現非線性迴歸機器學習神經網路
- 機器學習:迴歸問題機器學習
- 通用機器學習演算法:線性迴歸+決策樹+Xgboost機器學習演算法
- 手擼機器學習演算法 - 線性迴歸機器學習演算法