[機器學習&資料探勘]SVM---軟間隔最大化

風痕影默發表於2015-07-22

根據上個硬間隔最大化已經知道,在解決線性可分資料集的分類問題時,求得拉格朗日乘子、w、b就得到分離超平面,然後就可以進行分類,軟間隔最大化是針對非線性可分的資料集,因為並不是資料集在可分的時候會出現一些個別的點不能夠被正確劃分,而被劃分到另一類中,軟間隔最大化就是對目標函式加上一個懲罰項,或者說是鬆弛變數,這樣可以稍微靈活的進行分類,因此需要對上邊所說的問題、公式進行一些調整。

 因此原始問題就變成如下:

                    

其中是鬆弛變數,C是懲罰引數,一般由應用問題決定,C增大對誤分類的懲罰增大,C減小對誤分類的懲罰減小。

對偶問題則變成如下:

                    

接下來的w和b的求解公式便與硬間隔最大化是相同的如下:

                    

相關文章