機器學習之支援向量機的超平面

Lois發表於2020-07-04

支援向量機(Support Vector Machine)

給定訓練樣本集 D = {(x_1,y_1), (x_2,y_2),…, (x_m,y_m)}, y_i \in{-1,+1}, 分類學習最基本的想法就是基於訓練集 D 在樣本空間中找到一個劃分超平面,將不同類別的樣本分開,但能將訓練樣本分開的劃分超平面可能有很多,如圖 6.1 所示,我們應該找哪個呢?
我們應該定義一個效能指標,然後計算在每條線上該效能指標的值,算出的值最大的那條線便是最適合的。

直觀看上去,應該去找位於兩個訓練樣本“正中間”的劃分超平面,因為該劃分超平面對訓練樣本區域性擾動的“容忍”性最好,即對未見示例的劃分能力最強。
在樣本空間中,劃分超平面可通過如下線性方程來描述:

\mathbf{w}^T\mathbf{x}+ b = 0

其中 w = (w_1;w_2;…;w_d) 為法向量,決定了超平面的方向;b 為位移項,決定了超平面與原點之間的距離。顯然,劃分超平面可被法向量 w 和位移 b 確定
注意:x 向量與 w 向量維數相同

本作品採用《CC 協議》,轉載必須註明作者和本文連結

Hacking

相關文章