# coding=UTF-8
# ========================================================================================================
# 檔案說明:
# [1]LeNet-5模型
# [2]該檔案定義了【神經網路】【前向傳播的過程】和【神經網路中的引數】
# [3]mnist_inference.py
# 開發環境:
# Win10+Tensorflow+OpenCv3.3+Python3.5+PyCharm5.0.3
# 時間地點:
# 陝西師範大學 文津樓 2018.5.2
# 參考資料:
# http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
# 涉及的知識點:
# [1]Tensorflow中的【變數管理機制】
# [2]tf.get_variable()
# [3]tf.variable_scope()
# =======================================================================================================
import tensorflow as tf
#========================================================================================================
#函式原型:
# get_variable(name,shape=None,dtype=None,initializer=None,regularizer=None,trainable=True,collections=None,
# caching_device=None,partitioner=None,validate_shape=True,use_resource=None,custom_getter=None,
# constraint=None)
#函式說明:
# [1]建立一個名為name,維度為shape,型別為dtype,初始化值為initializer的Tensorflow變數
# [2]tf.get_variable()是Tensorflow中的【變數管理函式】
# [3]當使用tf.get_variable()函式用來獲取變數的時候,tf._get_variable()必須與tf.variable_scope()函式互相
# 配合使用
#========================================================================================================
#========================================================================================================
#函式原型:
# add_to_collection(name, value)
#函式說明:
# [1]add_to_collection(name,value)為Graph的一個方法
# [2]可以簡單的認為Graph維護了一個字典,其中key為name,value為list,而add_to_collection就是把變數通過對應的
# key把新增到list中去
#========================================================================================================
#========================================================================================================
#模組說明:
# 定義【神經網路結構】相關的【神經網路引數】
#========================================================================================================
INPUT_NODE = 784 #[1]神經網路【輸入層】的節點數=Img_Width x Img_Height x ImgChannel=28x28x1
OUTPUT_NODE = 10 #[2]神經網路【輸出層】的節點數=將要分類的類別數
LAYER1_NODE = 500 #[3]層節點數
#========================================================================================================
#函式說明:
# 建立神經網路中的【權值變數】
#返回值:
# 返回已經建立的權值變數
#========================================================================================================
def get_weight_variable(shape, regularizer):
weights = tf.get_variable("weights", shape, initializer=tf.truncated_normal_initializer(stddev=0.1))
if regularizer != None:
tf.add_to_collection('losses', regularizer(weights))
return weights
#========================================================================================================
#函式說明:
# 定義神經網路的前向傳播過程
#返回值:
# 前向傳播的結果
#========================================================================================================
def inference(input_tensor, regularizer):
with tf.variable_scope('layer1'):
weights = get_weight_variable([INPUT_NODE, LAYER1_NODE], regularizer)
biases = tf.get_variable("biases", [LAYER1_NODE], initializer=tf.constant_initializer(0.0))
layer1 = tf.nn.relu(tf.matmul(input_tensor, weights) + biases)
with tf.variable_scope('layer2'):
weights = get_weight_variable([LAYER1_NODE, OUTPUT_NODE], regularizer)
biases = tf.get_variable("biases", [OUTPUT_NODE], initializer=tf.constant_initializer(0.0))
layer2 = tf.matmul(layer1, weights) + biases
return layer2
#coding=UTF-8
#========================================================================================================
#檔案說明:
# [1]LeNet-5模型
# [2]該檔案定義了【神經網路】的【訓練程式】
# [3]mnist_train.py
#開發環境:
# Win10+Tensorflow1.7.0+OpenCv3.3+Python3.5+PyCharm5.0.3
#時間地點:
# 陝西師範大學 文津樓 2018.5.2
#參考資料:
# http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
#涉及的知識點:
#【學習率】
# [1]學習率:在訓練神經網路的時候,我們需要通過設定【學習率,learning_rate】來【控制】【引數的更新速度】
# [2]學習率決定了每次每次引數的更新的幅度,如果幅度過大,那麼可能導致引數在極優值得兩側來回移動;相反,學習率過低,
# 雖然可以保證收斂,但是這回大大的降低優化的速度
# [3]因此,學習率的設定不能過大,也不能過低。為了解決【學習率】的這個問題,Tensorflow提供了一種更加靈活的學習率
# 設定方法----【指數衰減法】。tf.train.exponential_decay函式實現了【指數衰減學習率】
# [4]【指數衰減學習率】:通過這個函式,可以先使用較大的學習率來快速的得到一個比較優的解,然後,隨著迭代的繼續逐步
# 衰減小學習率,使得模型在訓練後更加穩定,該函式涉及三個引數:
# [1]learning_rate-----初始學習率
# [2]decay_rate--------衰減係數
# [3]decay-steps-------衰減速度
#【滑動平均模型】
# 總結一下神經網路優化的七大方法:
# [1]神經網路的結構
# [1]全連線神經網路
# [2]串聯的卷積神經網路--LeNet-5,AlexNet
# [3]並聯的卷積神經網路--Inception-V3
# [4]全卷機神經網路-----FCN
# [5]對抗生成網路-------GAN
# [2]神經網路的層數
# [3]損失函式
# [1]分類問題------softmax+交叉熵損失
# [2]迴歸問題------均方誤差MSE損失函式
# [4]神經網路優化演算法
# [1]反向傳播演算法----針對的是整個神經網路模型在訓練資料上的損失函式的優化
# [2]梯度下降演算法----針對的是單個引數的優化
# [5]學習率的設定-------指數衰減學習率
# [1]基礎學習率
# [2]當前迭代輪數
# [3]總迭代輪數 = 訓練樣本的總數/每個Batch中的樣本數
# [4]學習率衰減率
# [6]過擬合問題---------正則化的損失函式,一般模型的正則化指代的是神經網路引數的正則化,偏置項一般不進行正則化
# [7]滑動平均模型-------衰減率decay
#========================================================================================================
import os
import mnist_inference
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
#========================================================================================================
#模組說明:
# 配置神經網路的引數,訓練神經網路的引數
#========================================================================================================
BATCH_SIZE = 100 #[1]每個批次提供的影象的數量
LEARNING_RATE_BASE = 0.8 #[2][指數衰減學習率]中的[初始學習率][基礎學習率]
LEARNING_RATE_DECAY = 0.99 #[3][指數衰減學習率]中的[衰減係數][學習率的衰減率]
REGULARIZATION_RATE = 0.0001 #[4]描述模型複雜程度的正則化項在損失函式中的係數
TRAINING_STEPS = 30000 #[5]訓練的迭代數
MOVING_AVERAGE_DECAY = 0.99 #[6][滑動平均模型]的[衰減率],控制模型更新的速度
MODEL_SAVE_PATH = "F:/MnistSet/" #[7]模型儲存的路徑
MODEL_NAME = "mnist_model" #[8]模型的名的字首mnist_model-29001.meta
#========================================================================================================
#函式說明:
# 配置神經網路的引數,訓練神經網路的引數
#========================================================================================================
def train(mnist):
x = tf.placeholder(tf.float32, [None, mnist_inference.INPUT_NODE], name='x-input')
y_ = tf.placeholder(tf.float32, [None, mnist_inference.OUTPUT_NODE], name='y-input')
regularizer = tf.contrib.layers.l2_regularizer(REGULARIZATION_RATE)#[1]返回一個正則化生成函式
y = mnist_inference.inference(x, regularizer) #[2]呼叫前向傳播函式
global_step = tf.Variable(0, trainable=False) #[3]定義儲存訓練輪數的變數,該引數不可優化
#[1]定義一個滑動平均的類,指定衰減率和num_updates引數
variable_averages = tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY, global_step)
#[2]在所有代表神經網路引數的變數上使用滑動平均
variables_averages_op = variable_averages.apply(tf.trainable_variables())
#[3]計算交叉熵,作為刻畫預測值和真實值之間差距的損失函式
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=tf.argmax(y_,1),logits=y)
cross_entropy_mean = tf.reduce_mean(cross_entropy) #[4]計算當前batch所有樣例的[交叉熵平均值]
#[5]總損失等於交叉熵損失和正則化損失之和[模型的正則化損失]
loss = cross_entropy_mean + tf.add_n(tf.get_collection('losses'))
#[6]設定指數衰減學習率
learning_rate = tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,
mnist.train.num_examples / BATCH_SIZE, LEARNING_RATE_DECAY,staircase=True)
#[7]使用優化演算法來優化模型的損失函式
train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)
#[8]指定計算圖中運算操作的依賴和計算順序
with tf.control_dependencies([train_step, variables_averages_op]):
train_op = tf.no_op(name='train') #[9]確保上面的指定的運算操作按照指定的順序和依賴執行
saver = tf.train.Saver() #[1]定義一個持久化類的類物件saver
with tf.Session() as sess: #[2]建立一個會話Session,並通過python的上下文管理器來管理這個會話
tf.global_variables_initializer().run() #[3]使用建立好的會話sess執行Tensorflow的變數初始化操作
for i in range(TRAINING_STEPS): #[1]迭代的訓練神經網路
xs, ys = mnist.train.next_batch(BATCH_SIZE) #[2]從資料集得到下一輪的訓練樣本
#[3]使用會話執行訓練過程
_, loss_value, step = sess.run([train_op, loss, global_step], feed_dict={x: xs, y_: ys})
if i % 1000 == 0: #[4]每1000次,儲存一次模型
#[5]輸出當前的訓練情況,輸出迭代的輪數和模型在當前batch上的損失函式大小
print('After {0:d} training step(s), loss on training batch is {1:g} '.format(step, loss_value))
#[6]儲存當前的模型,這裡給出了global_step引數,這樣可以在每個儲存模型的檔名尾部加上訓練的輪數
saver.save(sess, os.path.join(MODEL_SAVE_PATH, MODEL_NAME), global_step=global_step)
#========================================================================================================
#模組說明:
# 主程式的入口點
#========================================================================================================
def main(argv=None):
print('[Info]TensorFlow_Version is',tf.__version__) #[1]定義處理MNIST資料集的類,這個類在初始化時會自動下載資料
mnist = input_data.read_data_sets('F:/MnistSet/',one_hot=True)
train(mnist) #[2]呼叫train函式進行模型的訓練
#========================================================================================================
#模組說明:
# Tensorflow提供的一個主程式入口,tf.app.run函式將會呼叫上面的main函式
#========================================================================================================
if __name__ == '__main__':
tf.app.run()
#coding=UTF-8
#========================================================================================================
#檔案說明:
# [1]LeNet-5模型的測試檔案
# [2]該檔案定義了【神經網路】的【訓練程式】
# [3]main.py
#開發環境:
# Win10+Tensorflow1.7.0+OpenCv3.3+Python3.5+PyCharm5.0.3
#時間地點:
# 陝西師範大學 文津樓 2018.5.4
#參考資料:
# http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
#涉及的知識點:
#========================================================================================================
import time
import numpy as np
import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
import mnist_train #[1]載入mnist_train.py檔案中定義的函式和常量
import mnist_inference #[2]載入mnist_inference.py檔案中定義的函式和常量
EVAL_INTERVAL_SECS = 10
#========================================================================================================
#函式說明:
# 網路模型在測試集上的測試,用於網路模型訓練和模型質量的評估
#========================================================================================================
def evaluate(mnist):
with tf.Graph().as_default() as g: #[1]定義一個計算圖類Graph的類物件,並建立一個新的計算圖g
#[2]為[輸入層]和[輸出層]定義[兩個佔位符]
x = tf.placeholder(tf.float32,[None,mnist_inference.INPUT_NODE], name='x-input')
y_ = tf.placeholder(tf.float32,[None,mnist_inference.OUTPUT_NODE],name='y-input')
validate_feed = {x:mnist.validation.images,y_:mnist.validation.labels}
#[3]直接通過封裝好的函式來計算前向傳播的結果
y = mnist_inference.inference(x,None)
#[4]使用前向傳播的結果,計算正確率.僅僅測試預測值和正確值在第一維度上是否相等
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
#[5]因為上述比較的結果是布林值,下面首先將布林值轉化為浮點數,然後計算平均值
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
#[6]例項化一個滑動平均模型的類物件,這將會使得模型在測試集上更加的健壯(Robust)
variable_averages = tf.train.ExponentialMovingAverage(mnist_train.MOVING_AVERAGE_DECAY)
#[7]下面的函式可以直接生成tf.train.Saver所需要的變數重新命名字典
variable_to_restore= variable_averages.variables_to_restore()
#[8]該函式將會儲存執行Tensorflow執行所需要的全部資訊
saver = tf.train.Saver(variable_to_restore)
#========================================[計算圖的定義階段完畢]=====================================
#========================================[計算圖的執行階段開始]=====================================
while True:
with tf.Session() as sess: #[1]例項化一個會話Session的類物件,並重新命名為sess
#[2]該函式將會通過檔案路徑找到CheckPoint目錄下的最新的模型檔名
ckpt = tf.train.get_checkpoint_state(mnist_train.MODEL_SAVE_PATH)
if ckpt and ckpt.model_checkpoint_path:
#[3]載入模型
saver.restore(sess,ckpt.model_checkpoint_path)
#[4]通過[檔名]得到[模型儲存時迭代的輪數]
global_step = ckpt.model_checkpoint_path.split('/')[-1].split('-')[-1]
#[5]執行準確率的計算節點
accuracy_score = sess.run(accuracy,feed_dict=validate_feed)
#[6]輸出迭代的輪數和準確率
print("After %s training steps.validation""accuracy = %g"%(global_step,accuracy_score))
else:
print('No checkpoint file found')
return
time.sleep(EVAL_INTERVAL_SECS)
#========================================================================================================
#模組說明:
# 主程式的入口點
#========================================================================================================
def main(argv=None):
print('[Info]TensorFlow_Version is',tf.__version__) #[1]定義處理MNIST資料集的類,這個類在初始化時會自動下載資料
mnist = input_data.read_data_sets('F:/MnistSet/',one_hot=True)
mnist_train.train(mnist)
evaluate(mnist) #[2]呼叫train函式進行模型的訓練
#========================================================================================================
#模組說明:
# Tensorflow提供的一個主程式入口,tf.app.run函式將會呼叫上面的main函式
#========================================================================================================
if __name__ == '__main__':
tf.app.run()