圖解資料分析師最常用的10個機器學習演算法
在機器學習領域,有種說法叫做“世上沒有免費的午餐”,簡而言之,它是指沒有任何一種演算法能在每個問題上都能有最好的效果,這個理論在監督學習方面體現得尤為重要。
舉個例子來說,你不能說神經網路永遠比決策樹好,反之亦然。模型執行被許多因素左右,例如資料集的大小和結構。
因此,你應該根據你的問題嘗試許多不同的演算法,同時使用資料測試集來評估效能並選出最優項。
當然,你嘗試的演算法必須和你的問題相切合,其中的門道便是機器學習的主要任務。打個比方,如果你想打掃房子,你可能會用到吸塵器、掃帚或者拖把,但你肯定不會拿把鏟子開始挖坑吧。
對於渴望瞭解機器學習基礎知識的機器學習新人來說,這兒有份資料科學家使用的十大機器學習演算法,為你介紹這十大演算法的特性,便於大家更好地理解和應用,快來看看吧。
01 線性迴歸
線性迴歸可能是統計學和機器學習中最知名和最易理解的演算法之一。
由於預測建模主要關注最小化模型的誤差,或者以可解釋性為代價來做出最準確的預測。 我們會從許多不同領域借用、重用和盜用演算法,其中涉及一些統計學知識。
線性迴歸用一個等式表示,通過找到輸入變數的特定權重(B),來描述輸入變數(x)與輸出變數(y)之間的線性關係。
Linear Regression
舉例:y = B0 + B1 * x
給定輸入x,我們將預測y,線性迴歸學習演算法的目標是找到係數B0和B1的值。
可以使用不同的技術從資料中學習線性迴歸模型,例如用於普通最小二乘和梯度下降優化的線性代數解。
線性迴歸已經存在了200多年,並且已經進行了廣泛的研究。 如果可能的話,使用這種技術時的一些經驗法則是去除非常相似(相關)的變數並從資料中移除噪聲。 這是一種快速簡單的技術和良好的第一種演算法。
02 邏輯迴歸
邏輯迴歸是機器學習從統計領域借鑑的另一種技術。 這是二分類問題的專用方法(兩個類值的問題)。
邏輯迴歸與線性迴歸類似,這是因為兩者的目標都是找出每個輸入變數的權重值。 與線性迴歸不同的是,輸出的預測值得使用稱為邏輯函式的非線性函式進行變換。
邏輯函式看起來像一個大S,並能將任何值轉換為0到1的範圍內。這很有用,因為我們可以將相應規則應用於邏輯函式的輸出上,把值分類為0和1(例如,如果IF小於0.5,那麼 輸出1)並預測類別值。
Logistic Regression
由於模型的特有學習方式,通過邏輯迴歸所做的預測也可以用於計算屬於類0或類1的概率。這對於需要給出許多基本原理的問題十分有用。
與線性迴歸一樣,當你移除與輸出變數無關的屬性以及彼此非常相似(相關)的屬性時,邏輯迴歸確實會更好。 這是一個快速學習和有效處理二元分類問題的模型。
03 線性判別分析
傳統的邏輯迴歸僅限於二分類問題。 如果你有兩個以上的類,那麼線性判別分析演算法(Linear Discriminant Analysis,簡稱LDA)是首選的線性分類技術。
LDA的表示非常簡單。 它由你的資料的統計屬性組成,根據每個類別進行計算。 對於單個輸入變數,這包括:
-
每類的平均值。
-
跨所有類別計算的方差。
Linear Discriminant Analysis
LDA通過計算每個類的判別值並對具有最大值的類進行預測來進行。該技術假定資料具有高斯分佈(鐘形曲線),因此最好先手動從資料中移除異常值。這是分類預測建模問題中的一種簡單而強大的方法。
04 分類和迴歸樹
決策樹是機器學習的一種重要演算法。
決策樹模型可用二叉樹表示。對,就是來自演算法和資料結構的二叉樹,沒什麼特別。 每個節點代表單個輸入變數(x)和該變數上的左右孩子(假定變數是數字)。
Decision Tree
樹的葉節點包含用於進行預測的輸出變數(y)。 預測是通過遍歷樹進行的,當達到某一葉節點時停止,並輸出該葉節點的類值。
決策樹學習速度快,預測速度快。 對於許多問題也經常預測準確,並且你不需要為資料做任何特殊準備。
05 樸素貝葉斯
樸素貝葉斯是一種簡單但極為強大的預測建模演算法。
該模型由兩種型別的概率組成,可以直接從你的訓練資料中計算出來:1)每個類別的概率; 2)給定的每個x值的類別的條件概率。 一旦計算出來,概率模型就可以用於使用貝葉斯定理對新資料進行預測。 當你的資料是數值時,通常假設高斯分佈(鐘形曲線),以便可以輕鬆估計這些概率。
Bayes Theorem
樸素貝葉斯被稱為樸素的原因,在於它假設每個輸入變數是獨立的。 這是一個強硬的假設,對於真實資料來說是不切實際的,但該技術對於大範圍內的複雜問題仍非常有效。
06 K近鄰
KNN演算法非常簡單而且非常有效。 KNN的模型用整個訓練資料集表示。 是不是特簡單?
通過搜尋整個訓練集內K個最相似的例項(鄰居),並對這些K個例項的輸出變數進行彙總,來預測新的資料點。 對於迴歸問題,新的點可能是平均輸出變數,對於分類問題,新的點可能是眾數類別值。
成功的訣竅在於如何確定資料例項之間的相似性。如果你的屬性都是相同的比例,最簡單的方法就是使用歐幾里德距離,它可以根據每個輸入變數之間的差直接計算。
K-Nearest Neighbors
KNN可能需要大量的記憶體或空間來儲存所有的資料,但只有在需要預測時才會執行計算(或學習)。 你還可以隨時更新和管理你的訓練集,以保持預測的準確性。
距離或緊密度的概念可能會在高維環境(大量輸入變數)下崩潰,這會對演算法造成負面影響。這類事件被稱為維度詛咒。它也暗示了你應該只使用那些與預測輸出變數最相關的輸入變數。
07 學習向量量化
K-近鄰的缺點是你需要維持整個訓練資料集。 學習向量量化演算法(或簡稱LVQ)是一種人工神經網路演算法,允許你掛起任意個訓練例項並準確學習他們。
Learning Vector Quantization
LVQ用codebook向量的集合表示。開始時隨機選擇向量,然後多次迭代,適應訓練資料集。 在學習之後,codebook向量可以像K-近鄰那樣用來預測。 通過計算每個codebook向量與新資料例項之間的距離來找到最相似的鄰居(最佳匹配),然後返回最佳匹配單元的類別值或在迴歸情況下的實際值作為預測。 如果你把資料限制在相同範圍(如0到1之間),則可以獲得最佳結果。
如果你發現KNN在您的資料集上給出了很好的結果,請嘗試使用LVQ來減少儲存整個訓練資料集的記憶體要求。
08 支援向量機
支援向量機也許是最受歡迎和討論的機器學習演算法之一。
超平面是分割輸入變數空間的線。 在SVM中,會選出一個超平面以將輸入變數空間中的點按其類別(0類或1類)進行分離。在二維空間中可以將其視為一條線,所有的輸入點都可以被這條線完全分開。 SVM學習演算法就是要找到能讓超平面對類別有最佳分離的係數。
Support Vector Machine
超平面和最近的資料點之間的距離被稱為邊界,有最大邊界的超平面是最佳之選。同時,只有這些離得近的資料點才和超平面的定義和分類器的構造有關,這些點被稱為支援向量,他們支援或定義超平面。在具體實踐中,我們會用到優化演算法來找到能最大化邊界的係數值。
SVM可能是最強大的即用分類器之一,在你的資料集上值得一試。
09 bagging和隨機森林
隨機森林是最流行和最強大的機器學習演算法之一。 它是一種被稱為Bootstrap Aggregation或Bagging的整合機器學習演算法。
bootstrap是一種強大的統計方法,用於從資料樣本中估計某一數量,例如平均值。 它會抽取大量樣本資料,計算平均值,然後平均所有平均值,以便更準確地估算真實平均值。
在bagging中用到了相同的方法,但最常用到的是決策樹,而不是估計整個統計模型。它會訓練資料進行多重抽樣,然後為每個資料樣本構建模型。當你需要對新資料進行預測時,每個模型都會進行預測,並對預測結果進行平均,以更好地估計真實的輸出值。
Random Forest
隨機森林是對決策樹的一種調整,相對於選擇最佳分割點,隨機森林通過引入隨機性來實現次優分割。
因此,為每個資料樣本建立的模型之間的差異性會更大,但就自身意義來說依然準確無誤。結合預測結果可以更好地估計正確的潛在輸出值。
如果你使用高方差演算法(如決策樹)獲得良好結果,那麼加上這個演算法後效果會更好。
Boosting是一種從一些弱分類器中建立一個強分類器的整合技術。 它先由訓練資料構建一個模型,然後建立第二個模型來嘗試糾正第一個模型的錯誤。 不斷新增模型,直到訓練集完美預測或已經新增到數量上限。
AdaBoost是為二分類開發的第一個真正成功的Boosting演算法,同時也是理解Boosting的最佳起點。 目前基於AdaBoost而構建的演算法中最著名的就是隨機梯度boosting。
AdaBoost
AdaBoost常與短決策樹一起使用。 在建立第一棵樹之後,每個訓練例項在樹上的效能都決定了下一棵樹需要在這個訓練例項上投入多少關注。難以預測的訓練資料會被賦予更多的權重,而易於預測的例項被賦予更少的權重。 模型按順序依次建立,每個模型的更新都會影響序列中下一棵樹的學習效果。在建完所有樹之後,演算法對新資料進行預測,並且通過訓練資料的準確程度來加權每棵樹的效能。
因為演算法極為注重錯誤糾正,所以一個沒有異常值的整潔資料十分重要。
初學者在面對各種各樣的機器學習演算法時提出的一個典型問題是“我應該使用哪種演算法?”問題的答案取決於許多因素,其中包括:
-
資料的大小,質量和性質;
-
可用的計算時間;
-
任務的緊迫性;
-
你想要對資料做什麼。
即使是一位經驗豐富的資料科學家,在嘗試不同的演算法之前,也無法知道哪種演算法會表現最好。 雖然還有很多其他的機器學習演算法,但這些演算法是最受歡迎的演算法。 如果你是機器學習的新手,這是一個很好的學習起點。
相關文章
- 33個機器學習常用資料集機器學習
- 17個機器學習的常用演算法機器學習演算法
- 最強資料集集合:50個最佳機器學習公共資料集機器學習
- 資料分析入門必知:機器學習最通俗的解釋?機器學習
- [圖解] 機器學習常見的基本演算法圖解機器學習演算法
- 【盤點】Python機器學習常用的10個庫!Python機器學習
- 圖解Java常用資料結構圖解Java資料結構
- 10年老分析師最終拋棄Excel,它不是最好的資料分析工具Excel
- 圖解機器學習 | 降維演算法詳解圖解機器學習演算法
- 【機器學習】機器學習Top10演算法,教你選擇最合適的那一個!一文讀懂ML中的解析解與數值解...機器學習演算法
- 前端常用6種資料加密方式的使用(最詳解)前端加密
- 常用的機器學習&資料探勘知識(點)機器學習
- 分散式機器學習常用資料集分散式機器學習
- 圖解機器學習:人人都能懂的演算法原理圖解機器學習演算法
- 一文圖解機器學習的基本演算法!圖解機器學習演算法
- 最無恥的 HTTP 常用狀態碼圖解HTTP圖解
- 「資料科學家」必備的10種機器學習演算法資料科學機器學習演算法
- 10個最熱門的大資料技術大資料
- 一個廣告資料分析師的出家故事
- 「實操」結合圖資料庫、圖演算法、機器學習、GNN 實現一個推薦系統資料庫演算法機器學習GNN
- 一張圖:資料分析師的完整資料視覺化指南圖視覺化
- 機器學習演算法的隨機資料生成機器學習演算法隨機
- 給網站資料分析師的五個忠告網站
- 機器學習系列(7)_機器學習路線圖(附資料)機器學習
- 非平衡資料集的機器學習常用處理方法機器學習
- 資料分析師們的不可不讀的資訊圖與資料視覺化圖書視覺化
- 4個常用的Python資料分析庫詳解!Python
- 從零開始資料分析:一個資料分析師的資料分析流程
- 資料分析師的思考
- 常用資料探勘演算法演算法
- 八個機器學習資料清洗機器學習
- 五個常用的機器學習python庫!機器學習Python
- 一個真實資料集的完整機器學習解決方案(上)機器學習
- 一個真實資料集的完整機器學習解決方案(下)機器學習
- 資料分析師必懂的10種分析思維
- 大資料 機器學習 演算法概論大資料機器學習演算法
- 成為資料科學家應該知道的10種機器學習演算法資料科學機器學習演算法
- 大資料分析師,比資料分析師厲害在哪大資料