機器學習實戰ByMatlab(5):Logistic Regression

發表於2015-05-14

什麼叫做迴歸呢?舉個例子,我們現在有一些資料點,然後我們打算用一條直線來對這些點進行擬合(該曲線稱為最佳擬合曲線),這個擬合過程就被稱為迴歸。

利用Logistic迴歸進行分類的主要思想是:

根據現有資料對分類邊界線建立迴歸公式,以此進行分類。

這裡的”迴歸“一詞源於最佳擬合,表示要找到最佳擬合引數集。訓練分類器時的嘴閥就是尋找最佳擬合曲線,使用的是最優化演算法。

基於Logistic迴歸和Sigmoid函式的分類

優點:計算代價不高,易於理解和實現
缺點:容易欠擬合,分類精度可能不高

使用資料型別:數值型和標稱型資料

Sigmoid函式:

波形如下:

當z為0時,值為0.5,當z增大時,g(z)逼近1,當z減小時,g(z)逼近0

Logistic迴歸分類器:

對每一個特徵都乘以一個迴歸係數,然後把所有結果都相加,再講這個總和代入Sigmoid函式中,從而得到一個範圍在0-1之間的數值。任何大於0.5的資料被分為1,小於0.5的資料被分為0.因此Logistic迴歸也被看成是一種概率分佈。

分類器的函式形式確定之後,現在的問題就是,如何確定迴歸係數?

基於最優化方法的最佳迴歸係數確定

Sigmoid函式的輸入記為z,由下面公式得出:

如果採用向量的寫法,則上述公式可以寫成:

其中向量X就是分類器的輸入資料,向量W也就是我們要找到的最佳引數,從而使分類器儘可能更加地精確。接下來將介紹幾種需找最佳引數的方法。

梯度上升法

梯度上升法的基本思想:

要找到某函式的最大值,最好的方法是沿著該函式的梯度方向尋找

這裡提一下梯度下降法,這個我們應該會更加熟悉,因為我們在很多代價函式J的優化的時候經常用到它,其基本思想是:

要找到某函式的最小值,最好的方法是沿著該函式的梯度方向的反方向尋找

函式的梯度表示方法如下:

移動方向確定了,移動的大小我們稱之為步長,用α表示,用向量來表示的話,梯度下降演算法的迭代公式如下:

該公式已知被迭代執行,直到某個停止條件位置,比如迭代次數達到某個指定值或者演算法的誤差小到某個允許的誤差範圍內。

注:梯度下降演算法中的迭代公式如下:

Matlab 實現

效圖如下:

由上圖可以看到,迴歸效果還是挺不錯的,只有2-4個點分類錯誤。

其實這是的梯度上升演算法是批量梯度上升演算法,每一次更新引數的時候都要講所有的資料集都代入訓練,效果並不好,下面我們將介紹改進版本:隨機梯度上升演算法

隨機梯度上升

梯度上升演算法在每次更新迴歸係數時都要遍歷整個資料集,該方法在處理100個左右的資料集時尚可,但如果有數十億樣本和成千上萬的特徵,那麼該方法的複雜度就太高了。一種改進方法是一次僅用一個樣本點來更新迴歸係數,該方法就稱為隨機梯度上升法。由於可以在新樣本到來之前對分類器進行增量式更新,因此隨機梯度演算法是一個線上學習演算法。與”線上學習“相對應,一次處理所有資料被稱作是”批處理“

隨機梯度上升演算法可以寫成如下的虛擬碼:

所有迴歸係數初始化為1
對資料集中的每個樣本
計算該樣本的梯度
使用alpha x gradient 更新迴歸係數值
返回迴歸係數值

Matlab 程式碼實現

效果如下:

由上圖可以看出,隨機梯度上升演算法分類效果並沒有上面的的梯度上升演算法分類效果好。

但是直接比較梯度上升演算法和隨機梯度上升演算法是不公平的,前者是在整個資料集上迭代500次得到的結果,後者只是迭代了100次。一個判斷演算法優劣的可靠方法是看它是否收斂,也就是說求解的引數是否達到了穩定值,是否還會不斷變化。

我們讓隨機梯度上升演算法在整個資料集上執行200次,迭代過程中3個引數的變化如下圖:

由上圖可以看到,weight1 最先達到穩定,而weight0和weight2則還需要更多的迭代次數來達到穩定。

此時的分類器跟之前的梯度上升演算法的分類效果差不多,如下:

但同時我們也可以看到,三個引數都有不同程度的波動。產生這種現象的原因是存在一些不能被正確分類的樣本點(資料集並非線性可分),在每次迭代的時候都會引起引數的劇烈變化。我們期望演算法能避免來回波動,從而收斂到某個值。另外,演算法收斂速度也要加快。

改進的隨機梯度上升演算法

改進的隨機梯度上升演算法的主要兩個改進點如下:

1,每一步調整alpha的值,也就是alpha的值是不嚴格下降的
2.隨機採取樣本來更新迴歸引數

matlab程式碼如下:

改進點 1 中的alpha會隨著迭代次數的增加不斷減小,但由於程式碼中常數0.01的存在,alpha不會減少到0。這樣做是為了保證在多次迭代之後新資料對於引數的更新還有一定的影響。

另一點值得注意的就是,alpha每次減少 1/(k+i) ,k 是迭代次數,i是樣本的下標。所以 alpha 不是嚴格下降的。避免引數的嚴格下降也常見於模擬退火演算法等其他優化演算法中。

第二個改進的地方如程式碼註釋中標記的,這裡通過隨機採取樣本來更新迴歸引數,這樣能夠減少引數的週期性的波動。

由於alpha的動態變化,我們可以在開始的時候設定比較大的值,程式碼中設定0.01,alpha也就是每一次迭代的步長,步長越大,越能夠加快引數的收斂速度。然後ahpha會不嚴格下降,這樣就避免了過擬合現象的發生。至於什麼是過擬合已經alpha的選取問題將在下面描述。

迭代20次後效果如下:

由上圖可知,步長alpha動態變化之後,引數的收斂速度加快了很多,這裡只是對所有樣本資料集迭代20次,weight0 和 weight2很早就收斂。證明了該演算法的優異性。

學習率alpha的選取

首先我們看一下梯度上升演算法的核心程式碼,如下:

h = sigmoid(dataMat(i,:) * weight);
error = labelMat(i) – h;
weight = weight + alpha * error * dataMat(i,:)’;

第一行做的就是估計分類,第二行計算當前估計與正確分類之間的差error,第三行根據這個error來更新引數weight。

我們在迭代的時候,要做的目標就是最小化 error ,我們令 J 代表 error,令向量 θ 代表weight,則很顯然,J是θ的函式。這裡盜用Standfor 機器學習教程的圖,如下:

上圖中的每個箭頭就是每一次迭代的更新步長,第一幅圖我們看到,在最小化 J(θ) 的時候迭代了很多次,這說明什麼?說明我們要走很多步才能到達全域性最優點,原因就是我們每一步走的距離太短,走得太慢,也就是我們的alpha設定得太小。但是當我們處於最優點附近的時候,這樣有利我們向最優點靠近。

下圖中的每個箭頭也代表走一步,我們可以看到,迭代的時候,每一步都沒有到達最優點,而是在最優點的附近波動。為什麼呢?因為步長太大了嘛,明明就在眼前了,半步或者四分之三步就走到了,你卻只能一跨而過,重新再來。但是學習率大的話,在剛開始迭代的時候有利於我們引數的快速收斂,也有利於我們避開區域性最小值。

綜合以上兩種情況,我們就應該在開始的時候選取較大的學習率,然後不斷不嚴格減小學習率,這樣才是最優的選擇。

那麼,我們開始的學習率應該怎麼選取?Andrew Ng 在課程中建議先試試0.01,太大就0.003,太小就0.03….

相關文章