《神經網路和深度學習》系列文章十二:Hadamard積,s⊙t

哈工大SCIR發表於2016-04-28

出處: Michael Nielsen的《Neural Network and Deep Learning》,本節譯者:哈工大SCIR本科生 王宇軒


目錄

1、使用神經網路識別手寫數字

2、反向傳播演算法是如何工作的

  • 熱身:一個基於矩陣的快速計算神經網路輸出的方法
  • 關於損失函式的兩個假設
  • Hadamard積
  • 反向傳播背後的四個基本等式
  • 四個基本等式的證明(選讀)
  • 反向傳播演算法
  • 什麼時候反向傳播演算法高效
  • 反向傳播演算法再理解

3、改進神經網路的學習方法

4、神經網路能夠計算任意函式的視覺證明

5、為什麼深度神經網路的訓練是困難的

6、深度學習

反向傳播演算法是以常見線性代數操作為基礎——諸如向量加法,向量與矩陣乘法等運算。但其中一個操作相對不是那麼常用。具體來講,假設s和t是兩個有相同維數的向量。那麼我們用s⊙t來表示兩個向量的對應元素(elementwise)相乘。因此s⊙t的元素(s⊙t)j=sjtj。

這種對應元素相乘有時被稱為Hadamard積(Hadamard product)或Schur積(Schur product)。我們將稱它為Hadamard積。優秀的矩陣庫通常會提供Hadamard積的快速實現,這在實現反向傳播時將會有用。

下一節我們將介紹“反向傳播背後的四個基本等式”


本文來源於哈工大SCIR

原文連結點選即可跳轉

《神經網路和深度學習》系列文章十二:Hadamard積,s⊙t

相關文章