正則化為什麼能防止過擬合(重點地方標紅了)
正則化方法:防止過擬合,提高泛化能力
在訓練資料不夠多時,或者overtraining時,常常會導致overfitting(過擬合)。其直觀的表現如下圖所示,隨著訓練過程的進行,模型複雜度增加,在training data上的error漸漸減小,但是在驗證集上的error卻反而漸漸增大——因為訓練出來的網路過擬合了訓練集,對訓練集外的資料卻不work。
![13256158-291fae02d88c0c95.jpg](https://i.iter01.com/images/0ba9c8a08c60be34e4c4b5b724b35670bd0c31661782d7eed352355d0daf04bb.webp)
為了防止overfitting,可以用的方法有很多,下文就將以此展開。有一個概念需要先說明,在機器學習演算法中,我們常常將原始資料集分為三部分:training data、validation data,testing data。這個validation data是什麼?它其實就是用來避免過擬合的,在訓練過程中,我們通常用它來確定一些超引數(比如根據validation data上的accuracy來確定early stopping的epoch大小、根據validation data確定learning rate等等)。那為啥不直接在testing data上做這些呢?因為如果在testing data做這些,那麼隨著訓練的進行,我們的網路實際上就是在一點一點地overfitting我們的testing data,導致最後得到的testing accuracy沒有任何參考意義。因此,training data的作用是計算梯度更新權重,validation data如上所述,testing data則給出一個accuracy以判斷網路的好壞。
避免過擬合的方法有很多:early stopping、資料集擴增(Data augmentation)、正則化(Regularization)包括L1、L2(L2 regularization也叫weight decay),dropout。
L2 regularization(權重衰減)
L2正則化就是在代價函式後面再加上一個正則化項:
![13256158-ca3be58956828360.jpg](https://i.iter01.com/images/c42554da9edad2609e90dbbe8160c0f3a0aebb808e6ba83448d4a07010ec36a9.webp)
C0代表原始的代價函式,後面那一項就是L2正則化項,它是這樣來的:所有引數w的平方的和,除以訓練集的樣本大小n。λ就是正則項係數,權衡正則項與C0項的比重。另外還有一個係數1/2,1/2經常會看到,主要是為了後面求導的結果方便,後面那一項求導會產生一個2,與1/2相乘剛好湊整。
L2正則化項是怎麼避免overfitting的呢?我們推導一下看看,先求導:
![13256158-0d55c26cc9e8cd12.jpg](https://i.iter01.com/images/04a8c7a1b8e907892a0f5172e0f8927f27de1da493f36a4c9cc48e7ea86963dc.webp)
可以發現L2正則化項對b的更新沒有影響,但是對於w的更新有影響:
![13256158-4555f6f56c464d21.jpg](https://i.iter01.com/images/94c4c107baa4519bf51e9a79e622834ce3a2665a55bcfbd2e597b2e4bc9de27d.webp)
在不使用L2正則化時,求導結果中w前係數為1,現在w前面係數為 1−ηλ/n ,因為η、λ、n都是正的,所以 1−ηλ/n小於1,它的效果是減小w,這也就是權重衰減(weight decay)的由來。當然考慮到後面的導數項,w最終的值可能增大也可能減小。
另外,需要提一下,對於基於mini-batch的隨機梯度下降,w和b更新的公式跟上面給出的有點不同:
![13256158-2f43f7ee1a77e13f.jpg](https://i.iter01.com/images/9d9f15ac1893a548112217b99ee2d617a1f90069c40983a459c33a2bd3ecfb66.webp)
![13256158-17b2b16d122fbee0.jpg](https://i.iter01.com/images/89b4d95daf54efc145cd6d0827370aa0da2b8e5b486aa77e03702cc94d605269.webp)
對比上面w的更新公式,可以發現後面那一項變了,變成所有導數加和,乘以η再除以m,m是一個mini-batch中樣本的個數。
到目前為止,我們只是解釋了L2正則化項有讓w“變小”的效果,但是還沒解釋為什麼w“變小”可以防止overfitting?一個所謂“顯而易見”的解釋就是:更小的權值w,從某種意義上說,表示網路的複雜度更低,對資料的擬合剛剛好(這個法則也叫做奧卡姆剃刀),而在實際應用中,也驗證了這一點,L2正則化的效果往往好於未經正則化的效果。當然,對於很多人(包括我)來說,這個解釋似乎不那麼顯而易見,所以這裡新增一個稍微數學一點的解釋(引自知乎):
過擬合的時候,擬合函式的係數往往非常大,為什麼?如下圖所示,過擬合,就是擬合函式需要顧忌每一個點,最終形成的擬合函式波動很大。在某些很小的區間裡,函式值的變化很劇烈。這就意味著函式在某些小區間裡的導數值(絕對值)非常大,由於自變數值可大可小,所以只有係數足夠大,才能保證導數值很大。
![13256158-617557a35aca3ed6.png](https://i.iter01.com/images/3d891f4a2d9ffb638b31dc7627a9fe857d0bbf4596883754089a931509955e8b.webp)
而正則化是通過約束引數的範數使其不要太大,所以可以在一定程度上減少過擬合情況。
L1 regularization
在原始的代價函式後面加上一個L1正則化項,即所有權重w的絕對值的和,乘以λ/n(這裡不像L2正則化項那樣,需要再乘以1/2,具體原因上面已經說過。)
![13256158-f52a4b2907a649de.jpg](https://i.iter01.com/images/ec372aef7cb1c31de0590e517a8e84fb5911976b729a622dffc342ef6bc318e2.webp)
同樣先計算導數:
![13256158-4c841d0ddb63688f.jpg](https://i.iter01.com/images/81119e5976bc0b62eaea396c34b7cf7ac353c6c0760e7473097aaa6eeda59922.webp)
上式中sgn(w)表示w的符號。那麼權重w的更新規則為:
![13256158-a96b17b4658ddeea.jpg](https://i.iter01.com/images/e184ca6f931b8daf089f6c97a9a73c8a2ab47245ee00cbb8a35e8e3f11a1d429.webp)
比原始的更新規則多出了η * λ * sgn(w)/n這一項。當w為正時,更新後的w變小。當w為負時,更新後的w變大——因此它的效果就是讓w往0靠,使網路中的權重儘可能為0,也就相當於減小了網路複雜度,防止過擬合。
另外,上面沒有提到一個問題,當w為0時怎麼辦?當w等於0時,|W|是不可導的,所以我們只能按照原始的未經正則化的方法去更新w,這就相當於去掉ηλsgn(w)/n這一項,所以我們可以規定sgn(0)=0,這樣就把w=0的情況也統一進來了。(在程式設計的時候,令sgn(0)=0,sgn(w>0)=1,sgn(w<0)=-1)
Dropout
L1、L2正則化是通過修改代價函式來實現的,而Dropout則是通過修改神經網路本身來實現的,它是在訓練網路時用的一種技巧(trike)。它的流程如下:
![13256158-844cc7e249da90ef.png](https://i.iter01.com/images/ff08b82a03a8574f3df9fcbfa154a3728ab3c2ff06c319df60725d3ae066c2b2.webp)
假設我們要訓練上圖這個網路,在訓練開始時,我們隨機地“刪除”一半的隱層單元,視它們為不存在,得到如下的網路:
![13256158-7983bb9168903451.png](https://i.iter01.com/images/c036f5a28dcbbf3fbbe69409b819668aaf90f75d5acd6df1ffd4ffdf8e5324a7.webp)
保持輸入輸出層不變,按照BP演算法更新上圖神經網路中的權值(虛線連線的單元不更新,因為它們被“臨時刪除”了)。
以上就是一次迭代的過程,在第二次迭代中,也用同樣的方法,只不過這次刪除的那一半隱層單元,跟上一次刪除掉的肯定是不一樣的,因為我們每一次迭代都是“隨機”地去刪掉一半。第三次、第四次……都是這樣,直至訓練結束。
以上就是Dropout,它為什麼有助於防止過擬合呢?可以簡單地這樣解釋,運用了dropout的訓練過程,相當於訓練了很多個只有半數隱層單元的神經網路(後面簡稱為“半數網路”),每一個這樣的半數網路,都可以給出一個分類結果,這些結果有的是正確的,有的是錯誤的。隨著訓練的進行,大部分半數網路都可以給出正確的分類結果,那麼少數的錯誤分類結果就不會對最終結果造成大的影響。
更加深入地理解,可以看看Hinton和Alex兩牛2012的論文《ImageNet Classification with Deep Convolutional Neural Networks
相關文章
- TensorFlow筆記-08-過擬合,正則化,matplotlib 區分紅藍點筆記
- 原理解析-過擬合與正則化
- Java : 常用重點正則標記Java
- 神經網路最佳化篇:為什麼正則化有利於預防過擬合呢?(Why regularization reduces overfitting?)神經網路
- 什麼是機器學習迴歸演算法?【線性迴歸、正規方程、梯度下降、正則化、欠擬合和過擬合、嶺迴歸】機器學習演算法梯度
- 為什麼Docker能迅速躥紅Docker
- Pytorch_第八篇_深度學習 (DeepLearning) 基礎 [4]---欠擬合、過擬合與正則化PyTorch深度學習
- 防止或減輕過擬合的方法
- 「機器學習速成」正則化:降低模型的複雜度以減少過擬合機器學習模型複雜度
- 為什麼過了這麼久了
- 10-正則化項-權重衰退
- 虛擬偶像能為遊戲做什麼?遊戲
- 什麼是人工智慧領域的過擬合和欠擬合人工智慧
- “區塊鏈”技術為賦能數字化金融能帶來了什麼?區塊鏈
- 預編譯SQL為什麼能夠防止SQL隱碼攻擊編譯SQL
- 為什麼要特徵標準化特徵
- 我去,為什麼最左字首原則失效了?
- 正則化
- 正則式表達是什麼,有什麼作用
- 為什麼要虛擬化,為什麼要容器,為什麼要Docker,為什麼要K8S?DockerK8S
- 豐田為什麼要做標準化
- 機器學習中用來防止過擬合的方法有哪些?機器學習
- 自繪引擎時代,為什麼Flutter能突出重圍?Flutter
- 起、承、轉、合全賦能:華為應用生態為開發者帶來了什麼?
- 機器學習中的正則化到底是什麼意思?機器學習
- 過擬合與欠擬合
- 為什麼15年來我工作過的地方都沒有成功實施過OKR? - RedditOKR
- AI,能為1.2億聽障老人做點什麼AI
- 為什麼說華為手機適合辦公?這4點能夠解決大部分痛點,如同神助
- 伺服器虛擬化部署是什麼有什麼優缺點伺服器
- 機器學習之簡化正則化:L2 正則化機器學習
- JavaScript正則中g標誌JavaScript
- 梯度下降、過擬合和歸一化梯度
- 為什麼要重構?深入探討重構的原則、範圍和時機
- 正則化詳解
- Go語言適合用於哪些地方?Go能幹什麼?Go
- 前端開發的難點到底在什麼地方?前端
- Julia有什麼不好地方?缺點是啥?- viralin