採用動量梯度下降演算法訓練 BP 網路
例1 採用動量梯度下降演算法訓練 BP 網路。
訓練樣本定義如下:
輸入向量為
p =[-1 -2 3 1
-1 1 5 -3]
目標向量為 t = [-1 -1 1 1]
解:本例的 MATLAB 程式如下:
close all
clear
echo on
clc
% NEWFF——生成一個新的前向神經網路
% TRAIN——對 BP 神經網路進行訓練
% SIM——對 BP 神經網路進行模擬
pause
% 敲任意鍵開始
clc
% 定義訓練樣本
% P 為輸入向量
P=[-1, -2, 3, 1; -1, 1, 5, -3];
% T 為目標向量
T=[-1, -1, 1, 1];
pause;
clc
% 建立一個新的前向神經網路
net=newff(minmax(P),[3,1],{'tansig','purelin'},'traingdm')
% 當前輸入層權值和閾值
inputWeights=net.IW{1,1}
inputbias=net.b{1}
% 當前網路層權值和閾值
layerWeights=net.LW{2,1}
layerbias=net.b{2}
pause
clc
% 設定訓練引數
net.trainParam.show = 50;
net.trainParam.lr = 0.05;
net.trainParam.mc = 0.9;
net.trainParam.epochs = 1000;
net.trainParam.goal = 1e-3;
pause
clc
% 呼叫 TRAINGDM 演算法訓練 BP 網路
[net,tr]=train(net,P,T);
pause
clc
% 對 BP 網路進行模擬
A = sim(net,P)
% 計算模擬誤差
E = T - A
MSE=mse(E)
pause
clc
echo off
訓練樣本定義如下:
輸入向量為
p =[-1 -2 3 1
-1 1 5 -3]
目標向量為 t = [-1 -1 1 1]
解:本例的 MATLAB 程式如下:
close all
clear
echo on
clc
% NEWFF——生成一個新的前向神經網路
% TRAIN——對 BP 神經網路進行訓練
% SIM——對 BP 神經網路進行模擬
pause
% 敲任意鍵開始
clc
% 定義訓練樣本
% P 為輸入向量
P=[-1, -2, 3, 1; -1, 1, 5, -3];
% T 為目標向量
T=[-1, -1, 1, 1];
pause;
clc
% 建立一個新的前向神經網路
net=newff(minmax(P),[3,1],{'tansig','purelin'},'traingdm')
% 當前輸入層權值和閾值
inputWeights=net.IW{1,1}
inputbias=net.b{1}
% 當前網路層權值和閾值
layerWeights=net.LW{2,1}
layerbias=net.b{2}
pause
clc
% 設定訓練引數
net.trainParam.show = 50;
net.trainParam.lr = 0.05;
net.trainParam.mc = 0.9;
net.trainParam.epochs = 1000;
net.trainParam.goal = 1e-3;
pause
clc
% 呼叫 TRAINGDM 演算法訓練 BP 網路
[net,tr]=train(net,P,T);
pause
clc
% 對 BP 網路進行模擬
A = sim(net,P)
% 計算模擬誤差
E = T - A
MSE=mse(E)
pause
clc
echo off
相關文章
- 用神經網路測量訓練集的半衰期神經網路
- 梯度下降演算法梯度演算法
- 機器學習——梯度下降演算法機器學習梯度演算法
- 機器學習——BP神經網路演算法機器學習神經網路演算法
- 梯度下降優化演算法概述梯度優化演算法
- 梯度下降演算法 Gradient Descent梯度演算法
- 梯度下降梯度
- 訓練深度神經網路失敗的罪魁禍首不是梯度消失,而是退化神經網路梯度
- 機器學習筆記(1): 梯度下降演算法機器學習筆記梯度演算法
- 機器學習中梯度下降演算法的實際應用和技巧機器學習梯度演算法
- 【機器學習】梯度下降機器學習梯度
- 梯度會洩漏訓練資料?MIT新方法從梯度竊取訓練資料只需幾步梯度MIT
- 詳解神經網路中反向傳播和梯度下降神經網路反向傳播梯度
- ptorch常用程式碼梯度篇(梯度裁剪、梯度累積、凍結預訓練層等)梯度
- 座標下降與梯度下降梯度
- BP神經網路神經網路
- 機器學習之梯度下降機器學習梯度
- 梯度下降與excel梯度Excel
- 實現梯度下降梯度
- 【機器學習】梯度下降 II機器學習梯度
- 機器學習(四):4層BP神經網路(只用numpy不調包)用於訓練鳶尾花資料集|準確率96%機器學習神經網路
- 11迴歸演算法-BGD、SGD、MBGD梯度下降演算法梯度
- 對梯度下降演算法的理解和實現梯度演算法
- 3.3 神經網路的訓練神經網路
- 用神經網路訓練一個文字分類器神經網路文字分類
- 深度神經網路(DNN)反向傳播演算法(BP)神經網路DNN反向傳播演算法
- 機器學習之梯度下降法機器學習梯度
- 003.01 梯度下降梯度
- 1. 梯度下降法梯度
- 【機器學習基礎】——梯度下降機器學習梯度
- 深度學習 | 訓練網路trick——mixup深度學習
- 大白話5分鐘帶你走進人工智慧-第十一節梯度下降之手動實現梯度下降和隨機梯度下降的程式碼(6)人工智慧梯度隨機
- BP神經網路流程圖神經網路流程圖
- bp神經網路學習神經網路
- Parris:機器學習演算法自動化訓練工具機器學習演算法
- 演算法訓練 排序演算法排序
- SSD演算法訓練演算法
- 三種梯度下降演算法的區別(BGD, SGD, MBGD)梯度演算法