[Deep Learning] 神經網路基礎

Poll的筆記發表於2016-06-19

  目前,深度學習(Deep Learning,簡稱DL)在演算法領域可謂是大紅大紫,現在不只是網際網路、人工智慧,生活中的各大領域都能反映出深度學習引領的巨大變革。要學習深度學習,那麼首先要熟悉神經網路(Neural Networks,簡稱NN)的一些基本概念。當然,這裡所說的神經網路不是生物學的神經網路,我們將其稱之為人工神經網路(Artificial Neural Networks,簡稱ANN)貌似更為合理。神經網路最早是人工智慧領域的一種演算法或者說是模型,目前神經網路已經發展成為一類多學科交叉的學科領域,它也隨著深度學習取得的進展重新受到重視和推崇。

  為什麼說是“重新”呢?其實,神經網路最為一種演算法模型很早就已經開始研究了,但是在取得一些進展後,神經網路的研究陷入了一段很長時間的低潮期,後來隨著Hinton在深度學習上取得的進展,神經網路又再次受到人們的重視。本文就以神經網路為主,著重總結一些相關的基礎知識,然後在此基礎上引出深度學習的概念,如有書寫不當的地方,還請大家評批指正。

1. 神經元模型

  神經元是神經網路中最基本的結構,也可以說是神經網路的基本單元,它的設計靈感完全來源於生物學上神經元的資訊傳播機制。我們學過生物的同學都知道,神經元有兩種狀態:興奮和抑制。一般情況下,大多數的神經元是處於抑制狀態,但是一旦某個神經元收到刺激,導致它的電位超過一個閾值,那麼這個神經元就會被啟用,處於“興奮”狀態,進而向其他的神經元傳播化學物質(其實就是資訊)。

  下圖為生物學上的神經元結構示意圖:

  1943年,McCulloch和Pitts將上圖的神經元結構用一種簡單的模型進行了表示,構成了一種人工神經元模型,也就是我們現在經常用到的“M-P神經元模型”,如下圖所示:

  從上圖M-P神經元模型可以看出,神經元的輸出

$y = f(\sum_{i=1}^{n}w_{i}x_{i} - \theta)$

  其中$\theta$為我們之前提到的神經元的啟用閾值,函式$f(·)$也被稱為是啟用函式。如上圖所示,函式$f(·)$可以用一個階躍方程表示,大於閾值啟用;否則則抑制。但是這樣有點太粗暴,因為階躍函式不光滑,不連續,不可導,因此我們更常用的方法是用sigmoid函式來表示函式函式$f(·)$。

  sigmoid函式的表示式和分佈圖如下所示:

$f(x) = \frac{1}{1+e^{-x}}$

 

2. 感知機和神經網路

  感知機(perceptron)是由兩層神經元組成的結構,輸入層用於接受外界輸入訊號,輸出層(也被稱為是感知機的功能層)就是M-P神經元。下圖表示了一個輸入層具有三個神經元(分別表示為$x_{0}$、$x_{1}$、$x_{2}$)的感知機結構:

  根據上圖不難理解,感知機模型可以由如下公式表示:

$y = f(wx + b)$

  其中,$w$為感知機輸入層到輸出層連線的權重,$b$表示輸出層的偏置。事實上,感知機是一種判別式的線性分類模型,可以解決與、或、非這樣的簡單的線性可分(linearly separable)問題,線性可分問題的示意圖見下圖:

  但是由於它只有一層功能神經元,所以學習能力非常有限。事實證明,單層感知機無法解決最簡單的非線性可分問題——異或問題(有想了解異或問題或者是感知機無法解決異或問題證明的同學請移步這裡《證:單層感知機不能表示異或邏輯》)。

  關於感知機解決異或問題還有一段歷史值得我們簡單去了解一下:感知器只能做簡單的線性分類任務。但是當時的人們熱情太過於高漲,並沒有人清醒的認識到這點。於是,當人工智慧領域的巨擘Minsky指出這點時,事態就發生了變化。Minsky在1969年出版了一本叫《Perceptron》的書,裡面用詳細的數學證明了感知器的弱點,尤其是感知器對XOR(異或)這樣的簡單分類任務都無法解決。Minsky認為,如果將計算層增加到兩層,計算量則過大,而且沒有有效的學習演算法。所以,他認為研究更深層的網路是沒有價值的。由於Minsky的巨大影響力以及書中呈現的悲觀態度,讓很多學者和實驗室紛紛放棄了神經網路的研究。神經網路的研究陷入了冰河期。這個時期又被稱為“AI winter”。接近10年以後,對於兩層神經網路的研究才帶來神經網路的復甦。

  我們知道,我們日常生活中很多問題,甚至說大多數問題都不是線性可分問題,那我們要解決非線性可分問題該怎樣處理呢?這就是這部分我們要引出的“多層”的概念。既然單層感知機解決不了非線性問題,那我們就採用多層感知機,下圖就是一個兩層感知機解決異或問題的示意圖:

  構建好上述網路以後,通過訓練得到最後的分類面如下:

  由此可見,多層感知機可以很好的解決非線性可分問題,我們通常將多層感知機這樣的多層結構稱之為是神經網路。但是,正如Minsky之前所擔心的,多層感知機雖然可以在理論上可以解決非線性問題,但是實際生活中問題的複雜性要遠不止異或問題這麼簡單,所以我們往往要構建多層網路,而對於多層神經網路採用什麼樣的學習演算法又是一項巨大的挑戰,如下圖所示的具有4層隱含層的網路結構中至少有33個引數(不計偏置bias引數),我們應該如何去確定呢?

3. 誤差逆傳播演算法

  所謂神經網路的訓練或者是學習,其主要目的在於通過學習演算法得到神經網路解決指定問題所需的引數,這裡的引數包括各層神經元之間的連線權重以及偏置等。因為作為演算法的設計者(我們),我們通常是根據實際問題來構造出網路結構,引數的確定則需要神經網路通過訓練樣本和學習演算法來迭代找到最優引數組。

  說起神經網路的學習演算法,不得不提其中最傑出、最成功的代表——誤差逆傳播(error BackPropagation,簡稱BP)演算法。BP學習演算法通常用在最為廣泛使用的多層前饋神經網路中。

  BP演算法的主要流程可以總結如下:

  輸入:訓練集$D={(x_k, y_k)}_{k=1}^{m}$; 學習率;

  過程:

  1. 在(0, 1)範圍內隨機初始化網路中所有連線權和閾值

  2. repeat:

  3.   for all $(x_{k}, y_{k}) \in D$ do

  4.     根據當前引數計算當前樣本的輸出;

  5.     計算輸出層神經元的梯度項;

  6.     計算隱層神經元的梯度項;

  7.     更新連線權與閾值

  8.   end for

  9. until 達到停止條件

  輸出:連線權與閾值確定的多層前饋神經網路

  備註:後續補充BP演算法的公式推導。

4. 常見的神經網路模型

4.1 Boltzmann機和受限Boltzmann機

   神經網路中有一類模型是為網路狀態定義一個“能量”,能量最小化時網路達到理想狀態,而網路的訓練就是在最小化這個能量函式。Boltzmann(玻爾茲曼)機就是基於能量的模型,其神經元分為兩層:顯層和隱層。顯層用於表示資料的輸入和輸出,隱層則被理解為資料的內在表達。Boltzmann機的神經元都是布林型的,即只能取0、1值。標準的Boltzmann機是全連線的,也就是說各層內的神經元都是相互連線的,因此計算複雜度很高,而且難以用來解決實際問題。因此,我們經常使用一種特殊的Boltzmann機——受限玻爾茲曼機(Restricted Boltzmann Mechine,簡稱RBM),它層內無連線,層間有連線,可以看做是一個二部圖。下圖為Boltzmann機和RBM的結構示意圖:

  RBM常常用對比散度(Constrastive Divergence,簡稱CD)來進行訓練。

4.2 RBF網路

  RBF(Radial Basis Function)徑向基函式網路是一種單隱層前饋神經網路,它使用徑向基函式作為隱層神經元啟用函式,而輸出層則是對隱層神經元輸出的線性組合。下圖為一個RBF神經網路示意圖:

  訓練RBF網路通常採用兩步:

  1> 確定神經元中心,常用的方式包括隨機取樣,聚類等;

  2> 確定神經網路引數,常用演算法為BP演算法。

4.3 ART網路

  ART(Adaptive Resonance Theory)自適應諧振理論網路是競爭型學習的重要代表,該網路由比較層、識別層、識別層閾值和重置模組構成。ART比較好的緩解了競爭型學習中的“可塑性-穩定性窘境”(stability-plasticity dilemma),可塑性是指神經網路要有學習新知識的能力,而穩定性則指的是神經網路在學習新知識時要保持對舊知識的記憶。這就使得ART網路具有一個很重要的優點:可進行增量學習或線上學習。

4.4 SOM網路

  SOM(Self-Organizing Map,自組織對映)網路是一種競爭學習型的無監督神經網路,它能將高維輸入資料對映到低維空間(通常為二維),同事保持輸入資料在高維空間的拓撲結構,即將高維空間中相似的樣本點對映到網路輸出層中的臨近神經元。下圖為SOM網路的結構示意圖:

4.5 結構自適應網路

  我們前面提到過,一般的神經網路都是先指定好網路結構,訓練的目的是利用訓練樣本來確定合適的連線權、閾值等引數。與此不同的是,結構自適應網路則將網路結構也當做學習的目標之一,並希望在訓練過程中找到最符合資料特點的網路結構。

4.6 遞迴神經網路以及Elman網路

  與前饋神經網路不同,遞迴神經網路(Recurrent Neural Networks,簡稱RNN)允許網路中出現環形結構,從而可以讓一些神經元的輸出反饋回來作為輸入訊號,這樣的結構與資訊反饋過程,使得網路在$t$時刻的輸出狀態不僅與$t$時刻的輸入有關,還與$t-1$時刻的網路狀態有關,從而能處理與時間有關的動態變化。

  Elman網路是最常用的遞迴神經網路之一,其結構如下圖所示:

  RNN一般的訓練演算法採用推廣的BP演算法。值得一提的是,RNN在(t+1)時刻網路的結果O(t+1)是該時刻輸入和所有歷史共同作用的結果,這樣就達到了對時間序列建模的目的因此,從某種意義上來講,RNN被視為是時間深度上的深度學習也未嘗不對。

  RNN在(t+1)時刻網路的結果O(t+1)是該時刻輸入和所有歷史共同作用的結果這麼講其實也不是很準確,因為“梯度發散”同樣也會發生在時間軸上,也就是說對於t時刻來說,它產生的梯度在時間軸上向歷史傳播幾層之後就消失了,根本無法影響太遙遠的過去。因此,“所有的歷史”只是理想的情況。在實際中,這種影響也就只能維持若干個時間戳而已。換句話說,後面時間步的錯誤訊號,往往並不能回到足夠遠的過去,像更早的時間步一樣,去影響網路,這使它很難以學習遠距離的影響。

  為了解決上述時間軸上的梯度發散,機器學習領域發展出了長短時記憶單元(Long-Short Term Memory,簡稱LSTM),通過門的開關實現時間上的記憶功能,並防止梯度發散。其實除了學習歷史資訊,RNN和LSTM還可以被設計成為雙向結構,即雙向RNN、雙向LSTM,同時利用歷史和未來的資訊。

5. 深度學習

  深度學習指的是深度神經網路模型,一般指網路層數在三層或者三層以上的神經網路結構。

  理論上而言,引數越多的模型複雜度越高,“容量”也就越大,也就意味著它能完成更復雜的學習任務。就像前面多層感知機帶給我們的啟示一樣,神經網路的層數直接決定了它對現實的刻畫能力。但是在一般情況下,複雜模型的訓練效率低,易陷入過擬合,因此難以受到人們的青睞。具體來講就是,隨著神經網路層數的加深,優化函式越來越容易陷入區域性最優解(即過擬合,在訓練樣本上有很好的擬合效果,但是在測試集上效果很差)。同時,不可忽略的一個問題是隨著網路層數增加,“梯度消失”(或者說是梯度發散diverge)現象更加嚴重。我們經常使用sigmoid函式作為隱含層的功能神經元,對於幅度為1的訊號,在BP反向傳播梯度時,每傳遞一層,梯度衰減為原來的0.25。層數一多,梯度指數衰減後低層基本接收不到有效的訓練訊號。

  為了解決深層神經網路的訓練問題,一種有效的手段是採取無監督逐層訓練(unsupervised layer-wise training),其基本思想是每次訓練一層隱節點,訓練時將上一層隱節點的輸出作為輸入,而本層隱節點的輸出作為下一層隱節點的輸入,這被稱之為“預訓練”(pre-training);在預訓練完成後,再對整個網路進行“微調”(fine-tunning)訓練。比如Hinton在深度信念網路(Deep Belief Networks,簡稱DBN)中,每層都是一個RBM,即整個網路可以被視為是若干個RBM堆疊而成。在使用無監督訓練時,首先訓練第一層,這是關於訓練樣本的RBM模型,可按標準的RBM進行訓練;然後,將第一層預訓練號的隱節點視為第二層的輸入節點,對第二層進行預訓練;... 各層預訓練完成後,再利用BP演算法對整個網路進行訓練。

  事實上,“預訓練+微調”的訓練方式可被視為是將大量引數分組,對每組先找到區域性看起來較好的設定,然後再基於這些區域性較優的結果聯合起來進行全域性尋優。這樣就在利用了模型大量引數所提供的自由度的同時,有效地節省了訓練開銷。

  另一種節省訓練開銷的做法是進行“權共享”(weight sharing),即讓一組神經元使用相同的連線權,這個策略在卷積神經網路(Convolutional Neural Networks,簡稱CNN)中發揮了重要作用。下圖為一個CNN網路示意圖:

  CNN可以用BP演算法進行訓練,但是在訓練中,無論是卷積層還是取樣層,其每組神經元(即上圖中的每一個“平面”)都是用相同的連線權,從而大幅減少了需要訓練的引數數目。

6. 參考內容

  1. 周志華《機器學習》

  2. 知乎問答:http://www.zhihu.com/question/34681168

相關文章