【原創】python實現BP神經網路識別Mnist資料集
版權宣告:本文為博主ExcelMann的原創文章,未經博主允許不得轉載。
python實現BP神經網路識別Mnist資料集
作者:ExcelMann,轉載需註明。
話不多說,直接貼程式碼,程式碼有註釋。
# Author:Xuangan, Xu
# Data:2020-10-28
"""
BP神經網路
-----------------
利用梯度下降法,實現MNIST手寫體數字識別
資料集:Mnist資料集
"""
import os
import struct
import math
import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf
def load_mnist(path, kind='train'): # kind預設引數值為'train'
"""
從指定的路徑path中讀取資料
:param path:為檔案路徑
:param kind:為檔案的型別(train/t10k)
:return images為nxm維的陣列,n為樣本個數,m為樣本的特徵數,也即為畫素個數;
labels為images對應的標籤;
"""
labels_path = os.path.join(path,
'%s-labels.idx1-ubyte'
% kind)
images_path = os.path.join(path,
'%s-images.idx3-ubyte'
% kind)
with open(labels_path, 'rb') as lbpath:
magic, n = struct.unpack('>II',
lbpath.read(8))
labels = np.fromfile(lbpath,
dtype=np.uint8)
with open(images_path, 'rb') as imgpath:
magic, num, rows, cols = struct.unpack('>IIII',
imgpath.read(16))
images = np.fromfile(imgpath,
dtype=np.uint8).reshape(len(labels), 784)
return images, labels
def sigmoid(x):
"""
sigmoid函式
:param x: 輸入值
:return: 返回啟用函式的值
"""
return 1.0/(1.0+np.exp(-x))
# 定義神經網路類
class neuralNetwork:
def __init__(self,inputNodes,hiddenNodes,outputNodes,learningRate):
"""
:param inputNodes:輸入層節點個數
:param hiddenNodes:隱藏層結點個數
:param outputNodes:輸出層結點個數
:param learningRate:學習率
"""
self.iNodes = inputNodes
self.hNodes = hiddenNodes
self.oNodes = outputNodes
self.lr = learningRate
# 初始化網路權重
self.w_1 = np.random.uniform(-0.5,0.5,(inputNodes,hiddenNodes))
self.w_2 = np.random.uniform(-0.5, 0.5, (hiddenNodes,outputNodes))
# 初始化閾值
#self.thod_1 = np.random.randn(hiddenNodes)
self.thod_1 = np.random.uniform(-0.5,0.5,hiddenNodes)
#self.thod_2 = np.random.randn(outputNodes)
self.thod_2 = np.random.uniform(-0.5,0.5,outputNodes)
def culMse(self,pre_y,y):
"""
計算均方誤差
:param pre_y: 預測值
:param y: 期望值
"""
totalError = 0
for i in range(len(y)):
totalError += (y[i]-pre_y[i])**2
return totalError/2.0
def culCrossEntropyLoss(self,pre_y,y):
"""
計算交叉熵損失函式
:param pre_y: 預測值
:param y: 期望值
"""
total_error = 0
for j in range(len(y)):
total_error += y[j]*math.log(pre_y[j])
return (-1)*total_error
def forward(self,input_data):
"""
前向傳播
:param input_data:輸入資料(1X784的一維陣列)
:return: 返回輸出層的資料
"""
# 計算隱含層的輸入值以及輸出值(用到了sigmoid啟用函式),結果為大小15的陣列
hidden_input = input_data.dot(self.w_1)
hidden_output = sigmoid(hidden_input-self.thod_1)
# 計算輸出層的輸入值以及輸出值(用到了sigmoid啟用函式),結果為大小10的陣列
final_input = hidden_output.dot(self.w_2)
final_output = sigmoid(final_input-self.thod_2)
return final_output,hidden_output
def backward(self,target,input_data,hidden_output,final_output):
"""
反向傳播演算法
"""
g = np.zeros(self.oNodes) # 第j個輸出層結點對應的廣義偏差
e = np.zeros(self.hNodes) # 第h個隱藏層結點對應的廣義偏差
# 更新隱藏層與輸出層之間的權重w_2
for h in range(self.hNodes):
for j in range(self.oNodes):
# 計算第j個輸出層結點對應的廣義偏差
g[j] = (target[j]-final_output[j])*final_output[j]*(1-final_output[j])
# 計算w_hj的權重梯度
gradient_w_hj = self.lr*g[j]*hidden_output[h]
# 梯度下降法更新權重引數值
self.w_2[h][j] = self.w_2[h][j]+gradient_w_hj
# 更新輸出層的閾值
for j in range(self.oNodes):
# 計算第j個輸出層結點的閾值梯度
gradient_thod_j = (-1) * self.lr * g[j]
# 梯度下降法更新閾值引數
self.thod_2[j] = self.thod_2[j] + gradient_thod_j
# 求第h個隱藏層結點對應的廣義偏差
for h in range(self.hNodes):
totalBackValue = 0
for j in range(self.oNodes):
totalBackValue += self.w_2[h][j]*g[j]
e[h] = hidden_output[h]*(1-hidden_output[h])*totalBackValue
# 更新輸入層與隱藏層之間的權重w_1
for i in range(self.iNodes):
for h in range(self.hNodes):
# 計算w_ih的權重梯度
gradient_w_ih = self.lr*e[h]*input_data[i]
# 梯度下降法更新權重引數值
self.w_1[i][h] = self.w_1[i][h]+gradient_w_ih
# 更新隱藏層的閾值
for h in range(self.hNodes):
# 計算第h個隱藏層結點的閾值梯度
gradient_thod_h = (-1)*self.lr*e[h]
# 梯度下降法更新閾值引數
self.thod_1[h] += gradient_thod_h
def train(self,input_data,target):
"""
訓練網路引數
:param input_data:輸入資料(1X784的一維陣列)
:param target:標籤陣列(1X10的一維陣列)
"""
final_output,hidden_output = self.forward(input_data)
self.backward(target,input_data,hidden_output,final_output)
return final_output
def estimate(self,test_data,test_label):
"""
預測結果
:param test_data: 輸入資料,nX784維,n為輸入資料個數
:param test_label: 測試資料的標籤值
:return: 返回準確率
"""
correct_num = 0 # 預測正確個數
for i in range(test_data.shape[0]):
# 計算得到預測結果,preV為網路模型輸出值
preV,hiddenV = self.forward(test_data[i])
pre_y = np.argmax(preV) # 最大可能性的即為預測的值
label = np.argmax(test_label[i])
# 預測結果與標籤值對比,計算準確率
if(pre_y == label):
correct_num += 1
return correct_num/test_data.shape[0]
def SGD(self,train_data,train_label):
# 定義迭代次數epochs,並執行訓練過程
epochs = 200
# 批處理的量大小
batch_size = 200
for e in range(epochs):
# 從樣本中隨機挑選出100個樣本作為訓練集
batch_mask = np.random.choice(train_data.shape[0], batch_size)
batch_data = train_data[batch_mask]
batch_label = train_label[batch_mask]
# 遍歷批處理樣本
for i, data in enumerate(batch_data):
# 執行模型訓練
final_output = self.train(data, batch_label[i])
if (i % 40 == 0):
# 計算loss
mse = self.culMse(final_output, batch_label[i])
print(f'epoch:{e},i:{i},loss:{mse}')
if __name__ == "__main__":
# 通過tensorflow讀取mnist資料,並對讀取到的資料進行處理
mnist = tf.keras.datasets.mnist
(train_x,train_y),(test_x,test_y) = mnist.load_data()
# 建立以下陣列,用於儲存處理後的訓練和測試資料
train_data = np.zeros((60000,784))
train_label = np.zeros((60000,10))
test_data = np.zeros((10000,784))
test_label = np.zeros((10000,10))
# 處理資料,使得影像資料的值範圍為0-1,並將標籤改為one-hot型別
for i in range(60000): # 處理訓練資料
train_data[i] = (np.array(train_x[i]).flatten())/255
temp = np.zeros(10)
temp[train_y[i]] = 1
train_label[i] = temp
for i in range(10000): # 處理測試資料
test_data[i] = (np.array(test_x[i]).flatten())/255
temp = np.zeros(10)
temp[test_y[i]] = 1
test_label[i] = temp
# 初始化神經網路結點個數和學習率
input_nodes = 784
hidden_nodes = 15
output_nodes = 10
learningRate = 0.15
# 建立神經網路物件network
network = neuralNetwork(input_nodes,hidden_nodes,output_nodes,learningRate)
# 執行隨機梯度下降演算法
network.SGD(train_data,train_label)
# 測試階段,輸出精確率
accuracy = network.estimate(test_data,test_label)
print(f'test_data_Accuracy:{accuracy}')
相關文章
- 【Python】keras神經網路識別mnistPythonKeras神經網路
- python對BP神經網路實現Python神經網路
- matlab練習程式(神經網路識別mnist手寫資料集)Matlab神經網路
- 【Python】keras卷積神經網路識別mnistPythonKeras卷積神經網路
- 資料探勘---BP神經網路神經網路
- 前饋神經網路進行MNIST資料集分類神經網路
- BP神經網路流程圖神經網路流程圖
- 神經網路篇——從程式碼出發理解BP神經網路神經網路
- 構建兩層以上BP神經網路(python程式碼)神經網路Python
- 神經網路:numpy實現神經網路框架神經網路框架
- 如何用Python和深度神經網路識別影象?Python神經網路
- TensorFlow.NET機器學習入門【5】採用神經網路實現手寫數字識別(MNIST)機器學習神經網路
- 使用Pytorch和卷積神經網路進行簡單的數字識別(MNIST)PyTorch卷積神經網路
- Andrew BP 神經網路詳細推導神經網路
- 目標檢測(2):我用 PyTorch 復現了 LeNet-5 神經網路(MNIST 手寫資料集篇)!PyTorch神經網路
- 基於卷積神經網路和tensorflow實現的人臉識別卷積神經網路
- 【Pytorch】基於卷積神經網路實現的面部表情識別PyTorch卷積神經網路
- 粒子群優化演算法對BP神經網路優化 Matlab實現優化演算法神經網路Matlab
- 基於神經網路的OCR識別神經網路
- 用神經網路來識別人物影象性別神經網路
- 卷積神經網路的原理及Python實現卷積神經網路Python
- 《卷積神經網路的Python實現》筆記卷積神經網路Python筆記
- TensorFlow系列專題(六):實戰專案Mnist手寫資料集識別
- 卷積神經網路進行影像識別卷積神經網路
- 什麼?神經網路還能創造新知識?神經網路
- [譯] 使用 Python 和 Keras 實現卷積神經網路PythonKeras卷積神經網路
- 全連線神經網路的原理及Python實現神經網路Python
- 【python實現卷積神經網路】開始訓練Python卷積神經網路
- 基於WOA-SVM的乳腺癌資料分類識別演算法matlab模擬,對比BP神經網路和SVM演算法Matlab神經網路
- 基於PSO-SVM的乳腺癌資料分類識別演算法matlab模擬,對比BP神經網路和SVM演算法Matlab神經網路
- 初識神經網路----一神經網路
- 圖神經網路知識神經網路
- TensorFlow 卷積神經網路之貓狗識別卷積神經網路
- 利用Python實現卷積神經網路的視覺化Python卷積神經網路視覺化
- 《TensorFlow2.0》前饋神經網路和 BP 演算法神經網路演算法
- 如何入門Pytorch之四:搭建神經網路訓練MNISTPyTorch神經網路
- 卷積神經網路CNN實戰:MINST手寫數字識別——網路定義卷積神經網路CNN
- 利用淺層神經網路識別圖片中的英文神經網路