注意力機制----RNN中的self-attention

煉精華的丹,做精華的爐發表於2020-11-08
  • 對於SimpleRNN來說,要更新當前狀態h_1 :

    • 將“輸入”和“上一個時刻狀態”拼接

    • 乘以A,加上b,乘以雙曲正切函式

  • 對於有注意力機制的RNN來說:

    • 將“輸入”和“c_0”拼接

    • (剩下都一樣)

    • (也可以將三個拼接)

  • 每一個c的演算法: 注意力權重和狀態 做向量內積

  • 總結:

    • attention是用在seq2seq模型中的,是encoder做出用於decoder。

    • 而self-attention是用在RNN中,甚至其它各種網路。

相關文章