RNN
RNN Q&A
(1) 為什麼具有記憶功能?
這個是在RNN就解決的問題,就是因為有遞迴效應,上一時刻隱層的狀態參與到了這個時刻的計算過程中,直白一點呢的表述也就是選擇和決策參考了上一次的狀態
(2) 為什麼LSTM記的時間長?
因為特意設計的結構中具有CEC的特點,誤差向上一個狀態傳遞時幾乎沒有衰減,所以權值調整的時候,對於很長時間之前的狀態帶來的影響和結尾狀態帶來的影響可以同時發揮作用,最後訓練出來的模型就具有較長時間範圍內的記憶功能。
誤差回傳的主力還是透過了Memory Cell而保持了下來。所以我們現在用的LSTM模型,依然有比較好的效果。
最後整個梳理一下誤差回傳的過程,誤差透過輸出層,分類器,隱層等進入某個時刻的Block之後,先將誤差傳遞給了Output Gate和Memory Cell兩個地方。 到達輸出門的誤差,用來更新了輸出門的引數w,到達Memory Cell之後,誤差經過兩個路徑:
1 是透過這個cell向前一個時刻傳遞或者更前的時刻傳遞,
2 是用來傳遞到input gate和block的輸入,用來更新了相應的權值(注意!不會經過這裡向前一個時刻傳遞誤差)。
最關鍵的問題就是,這個回傳的演算法,只透過中間的Memory Cell向更前的時刻傳遞誤差。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2212852/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- RNN、LSTMRNN
- 貌離神合的RNN與ODE:花式RNN簡介RNN
- 從RNN到BERTRNN
- RNN程式碼解讀之char-RNN with TensorFlow(model.py)RNN
- RNN的PyTorch實現RNNPyTorch
- tf.nn.dynamic_rnnRNN
- RNN 結構詳解RNN
- 深度學習--RNN基礎深度學習RNN
- 語音情感識別--RNNRNN
- [譯] TensorFlow 中的 RNN 串流RNN
- 使用Keras進行深度學習:(五)RNN和雙向RNN講解及實踐Keras深度學習RNN
- LSTM解決RNN梯度爆炸(消失)RNN梯度
- 迴圈神經網路(RNN)神經網路RNN
- CNN,RNN 和DNN是什麼CNNRNNDNN
- 迴圈神經網路 RNN神經網路RNN
- tensorflow教程:tf.contrib.rnn.DropoutWrapperRNNAPP
- 基於RNN(二)唐詩生成RNN
- RNN與LSTM網路簡述RNN
- RNN神經網路模型綜述RNN神經網路模型
- 簡單明朗的 RNN 寫詩教程RNN
- RNN梯度消失與梯度爆炸的原因RNN梯度
- RNN二進位制加法例項RNN
- 詳細展示RNN的網路結構RNN
- NLP教程(5) - 語言模型、RNN、GRU與LSTM模型RNN
- 深度學習 CNN 和 RNN 等模型簡介深度學習CNNRNN模型
- (一)線性迴圈神經網路(RNN)神經網路RNN
- 迴圈神經網路(Recurrent Neural Network,RNN)神經網路RNN
- 注意力機制----RNN中的self-attentionRNN
- 【精讀】自然語言處理基礎之RNN自然語言處理RNN
- 4.5 RNN迴圈神經網路(recurrent neural network)RNN神經網路
- 簡單介紹numpy實現RNN原理實現RNN
- (二)非線性迴圈神經網路(RNN)神經網路RNN
- Tensorflow實現RNN(LSTM)手寫數字識別RNN
- 深度學習之RNN(迴圈神經網路)深度學習RNN神經網路
- [論文閱讀] RNN 在阿里DIEN中的應用RNN阿里
- 網路流量預測入門(一)之RNN 介紹RNN
- 深度學習課程--assign3--RNN簡單理解深度學習RNN
- 前沿高階技術之遞迴神經網路(RNN)遞迴神經網路RNN