初探神經網路與深度學習 —— 感知器
【本文轉自微信公眾號極客原創 作者:張鋒 連結:https://mp.weixin.qq.com/s/3t7vUkaF-EQoVbCyyKS-WA】
人工神經網路的第一個里程碑是感知機perceptron, 這個名字其實有點誤導, 因為它根本上是做決策的。 一個感知機其實是對神經元最基本概念的模擬 ,都未必有多少網路概念,他就是一個自動做決策的機器。
比如說你要決定今天出不出去看電影, 你要考慮3個因素, 一個是女朋友在不在, 一個是電影好不好看, 另一個是今天有沒有工作, 這三個因素每個人的權重都不同,有的人看重女朋友, 有的人看重工作,所以權重就不等, 最後每個人根據自己的權重做出0或1,去或不去, to be or not to be的決策。那麼你怎麼做呢? 你把三個要素按照它們需要的權重加和在一起, 在把這個分數送到一個叫sigmoid的門面前得到去或不去的決定,
比單層感知機更復雜的多層感知機-或者我們常說的深度網路, 是進行資料處理和模式識別的利器。 深度神經網路之所以能夠處理這些資料型別,主要是因為這些資料本身具有的複雜結構很適合被NN識別, 而人類不需要預先設計識別這些結構的函式而是任由網路學習, D-CNN 深度卷積網路能夠同時看到一個影像從細節到抽象的結構,所以能夠抓住一些我們人類都說不出的細節。
單層感知器
單層感知器可以用來區分線性可分的資料,並且一定可以在有限的迭代次數中收斂。 從使用過程來看,單層的感知器其實看起來是相當簡單的:對假設函式進行訓練,直到對所有的樣本都滿足經過假設函式計算出來的結果與預期結果一致,就結束了。
單層感知器能夠用來模擬邏輯函式,例如邏輯非NOT、邏輯或非XOR、邏輯或OR、邏輯與AND和邏輯與非NAND等,但是不能用來模擬邏輯異或XOR(對於這個函式,必須用兩層神經元)。稍後將討論這個問題。
除了輸入之外,偏置(bias)也經常被用於每個神經元,它在通過轉換函式之前被加到輸入的加權和上。權值也經常被應用於偏置上。偏置決定了多少輸入啟用(輸入的加權和)才能激發神經元進入興奮狀態。偏置往往被設定為1,而偏置的權值可以通過學習演算法加以調整。
不應將單層感知器和單個神經元相混淆。如圖所示的網路就是一個單層感知器,因為它只由一層構成。對於多維問題,必須採用多層感知器。 表示單層感知器非常簡單。由於輸入和權值存在一一對應關係,因此計算輸出是很容易的。
多層感知器
Minsky和Papert在他們的Perception一書中揭示:單層感知器有一個缺點,即它們只能對線性可分的資料集進行分類。然而,此後不久人們就發現,如果見單層感知器疊加成多層感知器,則理論上就具備對任何分類問題的解決能力。事實上,多層感知器可以模擬成任意複雜的函式,其中函式的複雜性取決於網路輸入個數和隱層個數。
多層感知器中神經元的性質和單層感知器中的一樣(例如偏置等)。然而由於存在多層,多層感知器中某一層的輸出就是下一層的輸入。因此多層感知器的實現比單層感知器略顯複雜,但還是很直觀的。注意,在這裡對隱層結點和輸出層結點使用相同的激勵函式,即sigmoid函式。Sigmoid函式可以將神經元的輸出值規格化到區間[0,1]。
該多層感知器有4個輸入單元,4個隱層單元和3個輸出單元。偏置作為輸入單元和隱層單元來處理,但偏置具有常數值1(雖然可以通過調整權值來改變偏置的影響)。 程式的執行流程如下:首先,計算隱層單元的輸出(利用輸入單元和隱層單元到輸入層單元的權值);然後,繼續計算下一層(這裡指輸出層)單元的輸出。通常這個過程被稱為前向傳送資料,或簡單的稱之為前饋(feed forward)。 可以把神經網路看成平行計算系統。每個神經元是一個處理元件,該處理元件接受一個或多個輸入併產生一個輸出。輸入和輸出均可以看成資訊。在多層感知器架構中,輸出可以被送往多個其他處理單元,做進一步的處理。神經網路並行性的特性來自於同一層多個神經元之間的並行性。所有的神經元能夠同時處理它們各自的輸入,使得在多處理器系統中同一層次上具有大量神經元的神經網路的執行速度更快。
區別
相對於單層感知器,輸出端從一個變到了多個;輸入端和輸出端之間也不光只有一層,現在又兩層:輸出層和隱藏層。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31137683/viewspace-2155866/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 深度學習——LeNet卷積神經網路初探深度學習卷積神經網路
- 再聊神經網路與深度學習神經網路深度學習
- 深度學習與圖神經網路深度學習神經網路
- 深度學習與圖神經網路學習分享:CNN 經典網路之-ResNet深度學習神經網路CNN
- NLP與深度學習(二)迴圈神經網路深度學習神經網路
- 【火爐煉AI】深度學習001-神經網路的基本單元-感知器AI深度學習神經網路
- AI之(神經網路+深度學習)AI神經網路深度學習
- 【深度學習】神經網路入門深度學習神經網路
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- 神經網路與深度學習 課程複習總結神經網路深度學習
- 【深度學習】1.4深層神經網路深度學習神經網路
- 深度學習三:卷積神經網路深度學習卷積神經網路
- 深度學習教程 | 深層神經網路深度學習神經網路
- 深度學習與圖神經網路學習分享:Graph Embedding 圖嵌入深度學習神經網路
- 深度學習與CV教程(4) | 神經網路與反向傳播深度學習神經網路反向傳播
- 吳恩達《神經網路與深度學習》課程筆記(4)– 淺層神經網路吳恩達神經網路深度學習筆記
- 吳恩達《神經網路與深度學習》課程筆記(5)– 深層神經網路吳恩達神經網路深度學習筆記
- 深度學習與圖神經網路學習分享:Transformer 整體結構深度學習神經網路ORM
- 深度學習與圖神經網路學習分享:訊息傳遞模式深度學習神經網路模式
- 吳恩達《神經網路與深度學習》課程筆記(1)– 深度學習概述吳恩達神經網路深度學習筆記
- 深度學習之RNN(迴圈神經網路)深度學習RNN神經網路
- 深度學習迴圈神經網路詳解深度學習神經網路
- 深度學習之上,圖神經網路(GNN )崛起深度學習神經網路GNN
- 深度學習筆記------卷積神經網路深度學習筆記卷積神經網路
- 深度學習之step by step搭建神經網路深度學習神經網路
- 深度學習卷積神經網路筆記深度學習卷積神經網路筆記
- 深度學習經典卷積神經網路之AlexNet深度學習卷積神經網路
- 深度學習與CV教程(6) | 神經網路訓練技巧 (上)深度學習神經網路
- 8-深度學習之神經網路核心原理與演算法-卷積神經網路深度學習神經網路演算法卷積
- 【機器學習基礎】神經網路/深度學習基礎機器學習神經網路深度學習
- 深度學習技術實踐與圖神經網路新技術深度學習神經網路
- 吳恩達《神經網路與深度學習》課程筆記(3)– 神經網路基礎之Python與向量化吳恩達神經網路深度學習筆記Python
- 深度學習、神經網路最好的入門級教程深度學習神經網路
- 深度學習革命的開端:卷積神經網路深度學習卷積神經網路
- 深度學習筆記8:利用Tensorflow搭建神經網路深度學習筆記神經網路
- CICC科普欄目|神經網路淺講:從神經元到深度學習神經網路深度學習
- 深度學習教程 | 神經網路基礎深度學習神經網路
- 從傳統的神經元網路轉變到深度學習網路深度學習