透過現象看本質,圖解支援向量機

視學演算法發表於2020-04-06

(點選上方快速關注並設定為星標,一起學Python)

選自towardsdatascience

作者:Rohit Pandey

機器之心編譯        參與:魔王、張倩

作者說:我以前一直沒有真正理解支援向量機,直到我畫了一張圖。

1. 問題

支援向量機(SVM)旨在解決「分類」問題。資料通常包含一定數量的條目/行/點。現在,我們想對每個資料點進行分類。為簡單起見,我們假設兩個類別:「正類」和「負類」。這或許可以幫助解答以下問題:

  • 基於影像的畫素資料,判斷這張影像中是否有貓(有貓則標籤為正類);

  • 基於郵件的主題、傳送者、文字等,判斷該郵件是否為垃圾郵件;

  • 判斷某個病人是否患有某種疾病。

其精髓在於,當我們知道正確答案時,我們會想到一些將資料分為兩類的規則(對於支援向量機而言,「規則」是畫一個平面,一側的所有點均為「正」,另一側的所有點均為「負」)。當我們遇到不知道類別的新資料點時,我們使用規則對其進行分類。分類問題嚴重依賴約束優化,同時也是約束優化的一個直觀示例。大家可以參考以下部落格或吳恩達的文章。

  • 部落格地址:https://towardsdatascience.com/lagrange-multipliers-with-pictures-and-code-ace8018dac5e

  • 吳恩達文章地址:http://cs229.stanford.edu/notes/cs229-notes3.pdf

1.1 圖解

我以前一直沒有真正理解支援向量機,直到我畫了一張圖。

我們可以看到特徵空間中有一些點。為方便視覺化,我們使用一個可在螢幕上觀看的 2D 特徵空間。該空間中散落著一些資料點,每個點具備二元標籤((1/-1)。如下圖所示,我們將綠色點看作正類,紅色點看作負類,黃色點類別未知。如果讓你猜測黃色點的標籤,你會怎麼選?你可能會發現其中一些點並不是那麼容易確認類別。

透過現象看本質,圖解支援向量機

圖 1:2-D 分類問題。綠色點是正類,紅色點是負類。你可以猜出黃色點的標籤嗎?(繪圖工具:https://github.com/ryu577/pyray)

現在,如果我畫一條紫色線將兩個類別分割開,那麼黃色點屬於哪個類別就清晰多了(紫色線上方是綠色點,下方是紅色點)。

透過現象看本質,圖解支援向量機

圖 2:畫一條線,作為將正類標籤和負類標籤分割開來的「規則」。現在,我們可以使用該規則標註每個黃色點的類別。

然而,這條線並非唯一。有很多條紫色線可以將綠色點和紅色點完美分割(見下圖)。隨著下圖中紫色線的移動,某些黃色點就顯得很微妙了(它們處於紫色線的不同側,因此它們的類別取決於你選擇使用哪條紫色線)。

透過現象看本質,圖解支援向量機

圖 3:將紅色點和綠色點完美分割的線有很多條。那麼我們應該選擇哪一條呢?

問題在於,所有候選線中,哪一條是「最優」的?有一點很清楚:當上圖中的紫色線接近右下角的紅色點(critical point)時,其泛化效果不好,而當它遠離那個點時,其分割效果要好得多。因此,這個紅色點可以說明紫色線的分類效果,因此它是「關鍵點」。我們可以說,遠離該紅色點的線同樣遠離所有訓練樣本,而靠近該紅色點的線最終的分類效果並不好。因此,離最近的訓練樣本較遠的線才是優秀的分類器。

接下來,我們來看如何利用數學知識繪製分割線。

2. 繪製分割線

現在我們要(在 2D 空間中)畫一條分割線(在更高維度的空間中,則為分割面)。那麼這條線是什麼呢?它是具備某種共性的點的無限集合。這些點滿足一個特定公式。為了找到這個公式,我們先從最簡單的線 x 軸開始。x 軸上所有點的位置向量存在什麼共性?v_x = [x,0],即它們對應的 y 座標均為 0。

也就是說,x 軸上每個點的位置向量與指向 y 軸方向的向量是正交(垂直)的。

這個說法可能看起來比較晦澀難懂,但是我們必須這麼說,因為這種現象其實對所有線都成立,而並非只適用於 x 軸。我們希望將此說法泛化至任意線。現在每次挪動一小步,我們來看看穿過原點的線(如 x 軸)。如下圖所示,只需將 x 軸旋轉一定角度,就可以得到這些線。

透過現象看本質,圖解支援向量機

圖 4:旋轉 x 軸可以得到穿過原點的任意線。這些線上的每個點都與橙色向量相垂直。

隨著線的變化,與線相垂直的向量也在變化,但是所有線上每個點的位置向量都與某個向量垂直。我們把這個與線垂直的向量叫做 w。當我們改變 w 時,就可以捕捉到所有此類線。

注意,對於任意給定線而言,存在多個 w 值。如果我們將向量 w 擴充套件或縮小一定數值,該線上每個點的位置向量仍與向量 w 垂直。

透過現象看本質,圖解支援向量機

圖 5:擴大或縮小正交 w 向量。

為什麼不把 w 向量限制在大小為 1 呢?下文中,我們將 w 向量的大小設為 1。

現在我們已經將穿過原點的所有線都引數化了。那麼那些沒有穿過原點的線呢?我們將穿過原點的線移動一定量,即在該線法向量 w 的方向上移動 b。現在,w 與該線上每個點的位置向量的點積不為零,而是常量 b(參見下圖)。w 向量是從原點指向紫色線的單位向量,且與紫色線垂直。A 即紫色線上與原點最接近的點。假設 OA 的距離是 -b。現在,考慮兩個隨機點 B 和 C(分別是圖中綠色點和橙色點)。將 OB 或 OC 與單位向量 w 相乘,分別得到三角形 OAB 和 OAC 的底。

在這兩種情況中,OA 為 -b。由於這兩個點只是紫色線上的任意點,我們可以推斷出,紫色線上的所有點均滿足 w^T x+b=0(其中 x 表示紫色線上點的位置向量)。

透過現象看本質,圖解支援向量機

圖 6:未穿過原點的線。

如果我們將不在該線上的點應用於上述公式呢?得到的結果不是零,而是從該點到紫色線的垂直距離(對於紫色線上的點而言也是如此,所以它們所對應的公式結果為零)。我們需要注意:這個結論僅適用於 |w|=1 的情況。下圖清晰說明了這一結果。B 為不屬於紫色線的任意點,B』』 為從 B 到紫色線的垂點,B』 為從 B 到 w 向量的垂點。從 B 到紫色線的垂直距離為 BB』』。但是由於 A-B』-B-B』』 是一個矩形,因此該垂直距離等於 AB』=OB』-OA。現在,OB』 是 B 的位置向量與 w 的點積。因此,如果 x 是 B 的位置向量,則 |OB』| = w^T x。這意味著 |AB』|=w^T x-(-b)(OA=-b)。因此從點 B 到紫色線的距離是:|AB』|=w^T x+b(該公式恰好是紫色線的公式)。

透過現象看本質,圖解支援向量機

圖 7:將不在紫色線上的點應用於紫色線公式會發生什麼?我們得到該點與紫色線之間的垂直距離。

注意,在 w 指向方向一側的所有點(如圖 7 中的點 B)到紫色線的垂直距離為正值,而另一側點的垂直距離為負值。

在 w 指向方向一側的所有點均得到正類標籤 (t_i=1),而另一側的所有點均得到負類標籤 (t_i=-1)。因此,如果我們將這些標籤與垂直距離相乘,則所有點調整後的垂直距離均為正,前提是這些點均被紫色線正確分類(即具備正類標籤的點線上一側,具備負類標籤的點在另一側)。

3. 最佳分割線

現在到了 SVM 的重點了。我們將任意點到分割線的調整後垂直距離叫做「間距」(margin)。那麼,對於任意給定分割線,所有點均具備間距(如果點被分割線正確分類,則間距為正,反之則間距為負)。我們想獲取將正類和負類完美分割的線。也就是說,間距越大越好,即使是對於鄰近界限(分割平面)的點。

那麼,最大化所有間距(甚至是最接近分割線的點的間距)的分割平面應該能夠很好地分割這些點。現在,給出 (w,b),第 i 個點的間距為:

透過現象看本質,圖解支援向量機

間距公式。

其中 x_i 表示特徵空間中的位置向量,t_i 表示標籤:1 為正類,-1 為負類。

所有點中的最小間距為:

透過現象看本質,圖解支援向量機

公式 1:所有點中的最小間距。

我們想讓 (w,b) 最大化上述最小間距。也就是:

透過現象看本質,圖解支援向量機

即我們想讓 (w,b) 滿足 |w|=1,且最大化間距:

透過現象看本質,圖解支援向量機

公式 2:SVM 目標函式。

注意:如果這條線沒有分離資料,那麼對於 (w,b),某些點的間距

透過現象看本質,圖解支援向量機

間距公式。

為負。且這些點中的其中一個會在第一次最小化中「脫穎而出」,這意味著 (w,b) 無法在第二次 arg max 時勝出。因此,該公式保證了勝出的 (w,b) 能夠分割資料。

公式 2 是一個優化問題,涉及最小化和最大化(mini-max)。解決一級優化總比二級優化要簡單。因此,我們嘗試將公式 2 轉化為約束優化問題。

我們用 γ 表示所有點的最小間距。

透過現象看本質,圖解支援向量機

公式 3:約束。

最終得到的優化問題為:

透過現象看本質,圖解支援向量機

公式 4:SVM 優化問題。

上述優化問題具備二次/線性約束和線性目標函式。我們可以使用二次規劃求解器(quadratic programming solver)和最優分割線/平面 (w,b) 解決該問題。

現在,我們來試著進一步簡化該問題。我們發現可以去除 γ。其代價是,我們必須放棄 w^T w = 1 這一要求。但這是值得的。我們使用 γ 將約束分割為兩部分,得到:

透過現象看本質,圖解支援向量機

公式 5:使用 γ 分割分割平面公式。

現在,使

透過現象看本質,圖解支援向量機

引入新的 w 變數。

為兩側取絕對值:

透過現象看本質,圖解支援向量機

取絕對值。

我們之前要求 |w|=1。這意味著:

透過現象看本質,圖解支援向量機

因此,公式 3 變成了:

透過現象看本質,圖解支援向量機

公式 5 和公式 6 使公式 4 中的優化問題變成了:

透過現象看本質,圖解支援向量機

現在,優化問題有了一個醜陋的目標函式。但是最大化 1/|w| 等同於最小化 |w|,等同於最小化 |w|²。新增 1/2 使得計算更加簡單。

因此,上述優化問題變為:

透過現象看本質,圖解支援向量機

公式 7

現在,該優化問題具備二次目標函式和線性約束(線性約束二次規劃,LCQP)。使用二次規劃求解器即可解決該問題。

現在,我們知道如何通過解決優化問題找出最優分割線了。透過表面檢視解決這類優化問題的真正機制,會幫助我們對該問題了解更多,具備更強大的洞察和見解。

- END -

如果看到這裡,說明你喜歡這篇文章,請轉發、點贊掃描下方二維碼或者微信搜尋「perfect_iscas」,新增好友後即可獲得10套程式設計師全棧課程+1000套PPT和簡歷模板向我私聊「進群」二字即可進入高質量交流群。

掃描二維碼進群↓

透過現象看本質,圖解支援向量機

透過現象看本質,圖解支援向量機

透過現象看本質,圖解支援向量機

在看 透過現象看本質,圖解支援向量機

相關文章