正向傳播是為了預測結果,也就是輸入資料從前到後(輸入層->隱藏層->輸出層)走一遍。
反向傳播是為了最佳化結果,最佳化結果也就是想要降低損失函式的梯度。損失函式的梯度是由當前層的a_(L)決定的,當前層的a_(L)收到當前層的w_(L)、b_(L)以及受到前一層的a_(L-1)影響,因此要降低當前層損失函式的梯度就要往前一層走,調整前一層的權重、偏置、以及a^(L-1),然後重複這個操作。這樣就是從後往前更新,也就是反向傳播。
正向傳播是為了預測結果,也就是輸入資料從前到後(輸入層->隱藏層->輸出層)走一遍。
反向傳播是為了最佳化結果,最佳化結果也就是想要降低損失函式的梯度。損失函式的梯度是由當前層的a_(L)決定的,當前層的a_(L)收到當前層的w_(L)、b_(L)以及受到前一層的a_(L-1)影響,因此要降低當前層損失函式的梯度就要往前一層走,調整前一層的權重、偏置、以及a^(L-1),然後重複這個操作。這樣就是從後往前更新,也就是反向傳播。