理解神經元和函式
捋順神經網路的前後向傳播的過程
輸入:x1, x2,...,xn
輸出:y
輸入和輸出關係:y = (x1 * w1 + x2 * w2 +...+xn * wn) + b
改寫輸入:x = [x1, x2, ..., xn]T
改寫權重:w = [w1, w2, ...,wn]
y = [w1, w2, ..., wn] * [x1, x2, ..., xn]T
階躍函式在x=0時不連續不可導,在非0處導數為0。輸出限定在[0-1],但不具備絲滑的特性。
在非0處導數為0,就是硬飽和,沒梯度可言,梯度意味著神經元傳播間是有反應的。
啟用函式的特徵:非線性,導數不是常數;幾乎處處可導,便於後向傳播演算法。
輸出範圍有限,一般在0-1
非飽和,當輸入比較大時輸出幾乎沒變化(飽和,梯度消失),sigmoid和tanh是軟飽和(輸入趨於無窮大的時候輸出無限接近上線),階躍函式是硬飽和(輸入非0輸出就已經始終都是上限值);Relu是非飽和的
單調性:即導數符號不變
sigmoid函式:y = 1/(exp(-x) + 1),導數:y' = y * (1 - y)
圖片來自參考文章
輸入:i1 = 0.1, i2 = 0.2
輸出(目標):O2 = 0.01, O2 = 0.99
權重:w1 = 0.1, w2 = 0.2, w3 = 0.3, w4 = 0.4,
w5 = 0.5, w6 = 0.6, w7 = 0.7, w8 = 0.8
偏置:b1 = 0.55, b2 = 0.56, b3 = 0.66, b4 = 0.67
正向傳播:
input(h1) = w1 * i1 + w2 * i2 + 1 * b1 = 0.6
output(h1) = 1 / (exp(-input(h1)) + 1)
input(O1) = w5 * output(h1) + w6 * output(h2) + 1 * b3
output(O1) = 1 / (exp(-input(O1)) + 1)
反向傳播:更新權重,計算總誤差(誤差平方和)
Error(total) = Error(output(O1)) + Error(output(O2))
= 1/2 * [(expected_ouput(O1) - output(O1))^2 + (expected_ouput(O2) - output(O2))^2]
= 1/2 * [(O1 - output(O1))^2 + (O2 - output(O2))^2]
更新w5:dError(total) / w5 = d(Error(total) / output(O1)) * d(output(O1) / input(O1)) * d(input(O1) / w5)
new_w5 = w5 - a * dError(total) / w5
相關文章
- 理解神經網路的不同損失函式神經網路函式
- 理解神經網路中的目標函式神經網路函式
- 深度神經網路(DNN)損失函式和啟用函式的選擇神經網路DNN函式
- 神經網路中常用的函式神經網路函式
- 友元函式和友元類函式
- 卷積神經網路-啟用函式卷積神經網路函式
- 微服務神經元(Neural)微服務
- 神經網路的啟用函式總結神經網路函式
- 神經網路中使用的啟用函式神經網路函式
- 模糊神經網路工具箱函式使用神經網路函式
- 理解JavaScript的函式呼叫和thisJavaScript函式
- 人工智慧---神經網路啟用函式恆等函式、sigmoid函式、softmax函式詳解人工智慧神經網路函式Sigmoid
- 神經網路啟用函式=生物轉換器?神經網路函式
- 神經網路基礎部件-損失函式詳解神經網路函式
- Tensorflow中神經網路的啟用函式神經網路函式
- 輕鬆理解JS函式節流和函式防抖JS函式
- 3.2 神經網路的通俗理解神經網路
- 簡單理解LSTM神經網路神經網路
- [Python人工智慧] 七.加速神經網路、激勵函式和過擬合Python人工智慧神經網路函式
- 理解仿函式函式
- 深入理解箭頭函式和傳統函式的區別函式
- 神經網路篇——從程式碼出發理解BP神經網路神經網路
- 閉包函式(匿名函式)的理解函式
- 計算機潛意識-神經元計算機
- 卷積神經網路中感受野的理解和計算卷積神經網路
- 理解 JavaScript Mutation 突變和 PureFunction 純函式JavaScriptFunction函式
- 輕鬆理解建構函式和原型物件函式原型物件
- [譯] 理解JS的函式呼叫和‘this’的指向JS函式
- 深入理解變數提升和函式提升變數函式
- CICC科普欄目|神經網路淺講:從神經元到深度學習神經網路深度學習
- 【函式】oracle視窗函式over()的理解函式Oracle
- 深入理解 函式、匿名函式、自執行匿名函式函式
- 神經網路損失函式中的正則化項L1和L2神經網路函式
- 《科學》:破解AD神經元死亡之謎!
- 徹底理解JavaScript函式的呼叫方式和傳參方式——結合經典面試題JavaScript函式面試題
- 【翻譯】理解JS的函式呼叫和‘this’的指向JS函式
- 深入理解 Go 中的 new() 和 make() 函式Go函式
- TensorFlow筆記-06-神經網路優化-損失函式,自定義損失函式,交叉熵筆記神經網路優化函式熵