資料探勘領域十大經典演算法之—樸素貝葉斯演算法(附程式碼)

weixin_33895657發表於2018-09-18

NaïveBayes演算法,又叫樸素貝葉斯演算法,樸素:特徵條件獨立;貝葉斯:基於貝葉斯定理。屬於監督學習的生成模型,實現簡單,沒有迭代,並有堅實的數學理論(即貝葉斯定理)作為支撐。

簡介

NaïveBayes演算法,又叫樸素貝葉斯演算法,樸素:特徵條件獨立;貝葉斯:基於貝葉斯定理。屬於監督學習的生成模型,實現簡單,沒有迭代,並有堅實的數學理論(即貝葉斯定理)作為支撐。在大量樣本下會有較好的表現,不適用於輸入向量的特徵條件有關聯的場景。

基本思想

(1)病人分類的例子

某個醫院早上收了六個門診病人,如下表:

11812472-00d21570f556acc4


現在又來了第七個病人,是一個打噴嚏的建築工人。請問他患上感冒的概率有多大?

根據貝葉斯定理:

11812472-d5ee80a51510ef23


因此,這個打噴嚏的建築工人,有66%的概率是得了感冒。同理,可以計算這個病人患上過敏或腦震盪的概率。比較這幾個概率,就可以知道他最可能得什麼病。

這就是貝葉斯分類器的基本方法:在統計資料的基礎上,依據某些特徵,計算各個類別的概率,從而實現分類。

(2)樸素貝葉斯分類器的公式

假設某個體有n項特徵(Feature),分別為F1、F2、…、Fn。現有m個類別(Category),分別為C1、C2、…、Cm。貝葉斯分類器就是計算出概率最大的那個分類,也就是求下面這個算式的最大值:

11812472-40c113c374d2f346


由於 P(F1F2…Fn) 對於所有的類別都是相同的,可以省略,問題就變成了求

11812472-1b7db9f8c682bef4


的最大值。

樸素貝葉斯分類器則是更進一步,假設所有特徵都彼此獨立,因此

11812472-20f278cc7d9b4981


上式等號右邊的每一項,都可以從統計資料中得到,由此就可以計算出每個類別對應的概率,從而找出最大概率的那個類。

雖然”所有特徵彼此獨立”這個假設,在現實中不太可能成立,但是它可以大大簡化計算,而且有研究表明對分類結果的準確性影響不大。

(3)拉普拉斯平滑(Laplace smoothing)

也就是引數為1時的貝葉斯估計,當某個分量在總樣本某個分類中(觀察樣本庫/訓練集)從沒出現過,會導致整個例項的計算結果為0。為了解決這個問題,使用拉普拉斯平滑/加1平滑進行處理。

它的思想非常簡單,就是對先驗概率的分子(劃分的計數)加1,分母加上類別數;對條件概率分子加1,分母加上對應特徵的可能取值數量。這樣在解決零概率問題的同時,也保證了概率和依然為1。

eg:假設在文字分類中,有3個類,C1、C2、C3,在指定的訓練樣本中,某個詞語F1,在各個類中觀測計數分別為=0,990,10,即概率為P(F1/C1)=0,P(F1/C2)=0.99,P(F1/C3)=0.01,對這三個量使用拉普拉斯平滑的計算方法如下:

1/1003 = 0.001,991/1003=0.988,11/1003=0.011

實際應用場景

• 文字分類

• 垃圾郵件過濾

• 病人分類

• 拼寫檢查

樸素貝葉斯模型

樸素貝葉斯常用的三個模型有:

• 高斯模型:處理特徵是連續型變數的情況

• 多項式模型:最常見,要求特徵是離散資料

• 伯努利模型:要求特徵是離散的,且為布林型別,即true和false,或者1和0

程式碼實現

基於多項式模型的樸素貝葉斯演算法(在github獲取)

11812472-2a97926d2183f468


測試資料集為MNIST資料集,獲取地址train.csv

執行結果

11812472-5ba6c53e9426c28e

我這裡為大家準備了一些學習資料,大家覺得對自己有幫助的可以加我QQ:3300863615  免費領取哦


11812472-f621c9b07bbb8efc.png

相關文章