【Tensorflow_DL_Note12】TensorFlow中LeNet-5模型的實現程式碼

馬衛飛發表於2018-05-06
# coding=UTF-8
# ========================================================================================================
# 檔案說明:
#       [1]LeNet-5模型
#       [2]該檔案定義了【神經網路】【前向傳播的過程】和【神經網路中的引數】
#       [3]mnist_inference.py
# 開發環境:
#       Win10+Tensorflow+OpenCv3.3+Python3.5+PyCharm5.0.3
# 時間地點:
#       陝西師範大學 文津樓 2018.5.6
# 參考資料:
#       http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
# 涉及的知識點:
#       [1]Tensorflow中的【變數管理機制】
#       [2]tf.get_variable()
#       [3]tf.variable_scope()
# =======================================================================================================
import tensorflow as tf

# ========================================================================================================
# 模組說明:
#         配置神經網路的引數
# =======================================================================================================
INPUT_NODE   = 784                    #[1]輸入層節點的數目
OUTPUT_NODE  = 10                     #[2]輸出層節點的數目

IMAGE_SIZE   = 28                     #[3]輸入影象的尺寸
NUM_CHANNELS = 1                      #[4]輸入影象的深度/通道
NUM_LABELS   = 10                     #[5]影象分類的類別數

CONV1_DEEP   = 32                     #[6]第一卷積層的深度
CONV1_SIZE   = 5                      #[7]第一卷積層卷積核的大小

CONV2_DEEP   = 64                     #[8]第二卷積層的深度
CONV2_SIZE   = 5                      #[9]第二卷積層的卷積核大小

FC_SIZE      = 512                    #[10]全連線層的節點個數
#========================================================================================================
#函式說明:
#       [1]定義卷積神經網路的前向傳播過程
#       [2]這裡新增了一個新的引數train,用於區分訓練過程和測試過程。
#       [3]在這個程式中,將用到dropout方法,dropout可以進一步提升模型的可靠性並防止過擬合,dropout過程只在訓練的時
#          候使用.
#=======================================================================================================
def inference(input_tensor, train, regularizer):
    with tf.variable_scope('layer1-conv1'):           #[1]該函式生成了一個Tensorflow的名稱空間
        conv1_weights = tf.get_variable(              #[2]通過該函式建立卷積核的權重變數,卷積核引數的個數,只和
                                        "weight",
                                        [CONV1_SIZE,         #[1]卷積核的尺寸
                                         CONV1_SIZE,
                                         NUM_CHANNELS,       #[2]卷積核的深度
                                         CONV1_DEEP],        #[3]當前節點矩陣的深度
                                        initializer=tf.truncated_normal_initializer(stddev=0.1))
                                                      #[3]建立第一卷積層的偏執項變數
        conv1_biases  = tf.get_variable("bias", [CONV1_DEEP], initializer=tf.constant_initializer(0.0))
                                                      #[4]Tensorflow中的該函式用來實現卷積層的前向傳播演算法
        conv1         = tf.nn.conv2d(input_tensor,           #[1]當前層的節點矩陣,這是一個四維矩陣
                                     conv1_weights,          #[2]第二個引數為卷積層的權重
                                     strides=[1, 1, 1, 1],   #[3]第三個引數,為不同緯度上的步長
                                     padding='SAME')         #[4]第四個引數為是否填充
                                                      #[5]將前向傳播的結果通過Relu啟用函式,完成去線性化
        relu1         = tf.nn.relu(tf.nn.bias_add(conv1, conv1_biases))

    with tf.name_scope("layer2-pool1"):               #[6]該函式生成一個Tensorflow的名稱空間
                                                      #[7]Tensorflow中最大池化層的前向傳播函式的實現
        pool1 = tf.nn.max_pool(relu1,                        #[1]第一個引數為一個四維的節點矩陣
                               ksize = [1,2,2,1],            #[2]池化層Filter的尺寸
                               strides=[1,2,2,1],            #[3]Filter在各個方向上的滑動步長
                               padding="SAME")               #[4]是否用0填充

    with tf.variable_scope("layer3-conv2"):           #[8]建立第三卷卷積層的權值變數並實現前向傳播過程
        conv2_weights = tf.get_variable(              #[9]這一層的輸入為14x14x32矩陣
            "weight", [CONV2_SIZE, CONV2_SIZE, CONV1_DEEP, CONV2_DEEP],
            initializer=tf.truncated_normal_initializer(stddev=0.1))
                                                      #[10]輸出為14x14x64
        conv2_biases = tf.get_variable("bias", [CONV2_DEEP], initializer=tf.constant_initializer(0.0))
        conv2 = tf.nn.conv2d(pool1, conv2_weights, strides=[1, 1, 1, 1], padding='SAME')
        relu2 = tf.nn.relu(tf.nn.bias_add(conv2, conv2_biases))

    with tf.name_scope("layer4-pool2"):               #[11]第四池化層,輸出為7x7x64
        pool2 = tf.nn.max_pool(relu2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')
        pool_shape = pool2.get_shape().as_list()      #[12]該函式可以得到第四池化層輸出矩陣的維度,而不需要手工計算
        nodes = pool_shape[1] * pool_shape[2] * pool_shape[3]
                                                      #[13]通過該函式將第四層的輸出變成一個batch的向量
        reshaped = tf.reshape(pool2, [pool_shape[0], nodes])

    with tf.variable_scope('layer5-fc1'):             #[14]建立第五全連線層的變數並實現前向傳播過程,這一層的輸入被
                                                      #拉直後是一組向量,向量長度為3136,輸出是一組長度為512的向量.
        fc1_weights = tf.get_variable("weight", [nodes, FC_SIZE],
                                      initializer=tf.truncated_normal_initializer(stddev=0.1))
        if regularizer != None:                       #[15]只有全連線層的權重需要加入正則化
            tf.add_to_collection('losses', regularizer(fc1_weights))
        fc1_biases = tf.get_variable("bias", [FC_SIZE], initializer=tf.constant_initializer(0.1))

        fc1 = tf.nn.relu(tf.matmul(reshaped, fc1_weights) + fc1_biases)
        if train:
            fc1 = tf.nn.dropout(fc1, 0.5)

    with tf.variable_scope('layer6-fc2'):
        fc2_weights = tf.get_variable("weight", [FC_SIZE, NUM_LABELS],
                                      initializer=tf.truncated_normal_initializer(stddev=0.1))
        if regularizer != None:
            tf.add_to_collection('losses', regularizer(fc2_weights))
        fc2_biases = tf.get_variable("bias", [NUM_LABELS], initializer=tf.constant_initializer(0.1))
        logit = tf.matmul(fc1, fc2_weights) + fc2_biases

    return logit
	
#coding=UTF-8
#========================================================================================================
#檔案說明:
#       [1]LeNet-5模型
#       [2]該檔案定義了【神經網路】的【訓練程式】
#       [3]mnist_train.py
#開發環境:
#       Win10+Tensorflow1.7.0+OpenCv3.3+Python3.5+PyCharm5.0.3
#時間地點:
#       陝西師範大學 文津樓 2018.5.6
#參考資料:
#       http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
#涉及的知識點:
#【學習率】
#       [1]學習率:在訓練神經網路的時候,我們需要通過設定【學習率,learning_rate】來【控制】【引數的更新速度】
#       [2]學習率決定了每次每次引數的更新的幅度,如果幅度過大,那麼可能導致引數在極優值得兩側來回移動;相反,學習率過低,
#          雖然可以保證收斂,但是這回大大的降低優化的速度
#       [3]因此,學習率的設定不能過大,也不能過低。為了解決【學習率】的這個問題,Tensorflow提供了一種更加靈活的學習率
#          設定方法----【指數衰減法】。tf.train.exponential_decay函式實現了【指數衰減學習率】
#       [4]【指數衰減學習率】:通過這個函式,可以先使用較大的學習率來快速的得到一個比較優的解,然後,隨著迭代的繼續逐步
#          衰減小學習率,使得模型在訓練後更加穩定,該函式涉及三個引數:
#                  [1]learning_rate-----初始學習率
#                  [2]decay_rate--------衰減係數
#                  [3]decay-steps-------衰減速度
#【滑動平均模型】
#       總結一下神經網路優化的七大方法:
#          [1]神經網路的結構
#                 [1]全連線神經網路
#                 [2]串聯的卷積神經網路--LeNet-5,AlexNet
#                 [3]並聯的卷積神經網路--Inception-V3
#                 [4]全卷機神經網路-----FCN
#                 [5]對抗生成網路-------GAN
#          [2]神經網路的層數
#          [3]損失函式
#                 [1]分類問題------softmax+交叉熵損失
#                 [2]迴歸問題------均方誤差MSE損失函式
#          [4]神經網路優化演算法
#                 [1]反向傳播演算法----針對的是整個神經網路模型在訓練資料上的損失函式的優化
#                 [2]梯度下降演算法----針對的是單個引數的優化
#          [5]學習率的設定-------指數衰減學習率
#                 [1]基礎學習率
#                 [2]當前迭代輪數
#                 [3]總迭代輪數 = 訓練樣本的總數/每個Batch中的樣本數
#                 [4]學習率衰減率
#          [6]過擬合問題---------正則化的損失函式,一般模型的正則化指代的是神經網路引數的正則化,偏置項一般不進行正則化
#          [7]滑動平均模型-------衰減率decay
#========================================================================================================
import os
import numpy as np
import mnist_inference
import tensorflow as tf
from   tensorflow.examples.tutorials.mnist import input_data
#========================================================================================================
#模組說明:
#       配置神經網路的引數,訓練神經網路的引數
#========================================================================================================
BATCH_SIZE           = 100              #[1]每個批次提供的影象的數量
LEARNING_RATE_BASE   = 0.8              #[2][指數衰減學習率]中的[初始學習率][基礎學習率]
LEARNING_RATE_DECAY  = 0.99             #[3][指數衰減學習率]中的[衰減係數][學習率的衰減率]
REGULARIZATION_RATE  = 0.0001           #[4]描述模型複雜程度的正則化項在損失函式中的係數
TRAINING_STEPS       = 30000            #[5]訓練的迭代數
MOVING_AVERAGE_DECAY = 0.99             #[6][滑動平均模型]的[衰減率],控制模型更新的速度
MODEL_SAVE_PATH      = "F:/MnistSet/"   #[7]模型儲存的路徑
MODEL_NAME           = "mnist_model"    #[8]模型的名的字首mnist_model-29001.meta
#========================================================================================================
#函式說明:
#       配置神經網路的引數,訓練神經網路的引數
#========================================================================================================
def train(mnist):
    x  = tf.placeholder(tf.float32, [BATCH_SIZE,                      #[1]一個輸入的BATCH
                                     mnist_inference.IMAGE_SIZE,      #[2]後面的三個引數,對應一個節點矩陣
                                     mnist_inference.IMAGE_SIZE,
                                     mnist_inference.NUM_CHANNELS],
                                     name='x-input')
    y_ = tf.placeholder(tf.float32, [None, mnist_inference.OUTPUT_NODE], name='y-input')

    regularizer = tf.contrib.layers.l2_regularizer(REGULARIZATION_RATE)#[1]返回一個正則化生成函式
    y           = mnist_inference.inference(x,True,regularizer)        #[2]呼叫前向傳播函式
    global_step = tf.Variable(0, trainable=False)                      #[3]定義儲存訓練輪數的變數,該引數不可優化
                                                            #[1]定義一個滑動平均的類,指定衰減率和num_updates引數
    variable_averages     = tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY, global_step)
                                                            #[2]在所有代表神經網路引數的變數上使用滑動平均
    variables_averages_op = variable_averages.apply(tf.trainable_variables())
                                                            #[3]計算交叉熵,作為刻畫預測值和真實值之間差距的損失函式
    cross_entropy         = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=tf.argmax(y_,1),logits=y)
    cross_entropy_mean    = tf.reduce_mean(cross_entropy)   #[4]計算當前batch所有樣例的[交叉熵平均值]
                                                            #[5]總損失等於交叉熵損失和正則化損失之和[模型的正則化損失]
    loss                  = cross_entropy_mean + tf.add_n(tf.get_collection('losses'))
                                                            #[6]設定指數衰減學習率
    learning_rate         = tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,
                                              mnist.train.num_examples / BATCH_SIZE, LEARNING_RATE_DECAY,staircase=True)
                                                            #[7]使用優化演算法來優化模型的損失函式
    train_step            = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)
                                                            #[8]指定計算圖中運算操作的依賴和計算順序
    with tf.control_dependencies([train_step, variables_averages_op]):
        train_op = tf.no_op(name='train')                   #[9]確保上面的指定的運算操作按照指定的順序和依賴執行

    saver = tf.train.Saver()                                #[1]定義一個持久化類的類物件saver
    with tf.Session() as sess:                              #[2]建立一個會話Session,並通過python的上下文管理器來管理這個會話
        tf.global_variables_initializer().run()             #[3]使用建立好的會話sess執行Tensorflow的變數初始化操作

        for i in range(TRAINING_STEPS):                     #[1]迭代的訓練神經網路
            xs, ys = mnist.train.next_batch(BATCH_SIZE)     #[2]從資料集得到下一輪的訓練樣本
            reshaped_xs = np.reshape(xs,(BATCH_SIZE,mnist_inference.IMAGE_SIZE,mnist_inference.IMAGE_SIZE,
                                         mnist_inference.NUM_CHANNELS))
                                                            #[3]使用會話執行訓練過程
            _, loss_value, step = sess.run([train_op, loss, global_step], feed_dict={x: reshaped_xs, y_: ys})
            if i % 1000 == 0:                               #[4]每1000次,儲存一次模型
                                                            #[5]輸出當前的訓練情況,輸出迭代的輪數和模型在當前batch上的損失函式大小
                print('After {0:d} training step(s), loss on training batch is {1:g} '.format(step, loss_value))
                                                            #[6]儲存當前的模型,這裡給出了global_step引數,這樣可以在每個儲存模型的檔名尾部加上訓練的輪數
                saver.save(sess, os.path.join(MODEL_SAVE_PATH, MODEL_NAME), global_step=global_step)
#========================================================================================================
#模組說明:
#       主程式的入口點
#========================================================================================================
def main(argv=None):
    print('[Info]TensorFlow_Version is',tf.__version__)     #[1]定義處理MNIST資料集的類,這個類在初始化時會自動下載資料
    mnist = input_data.read_data_sets('F:/MnistSet/',one_hot=True)
    train(mnist)                                            #[2]呼叫train函式進行模型的訓練
#========================================================================================================
#模組說明:
#       Tensorflow提供的一個主程式入口,tf.app.run函式將會呼叫上面的main函式
#========================================================================================================
if __name__ == '__main__':
    tf.app.run()


#coding=UTF-8
#========================================================================================================
#檔案說明:
#       [1]LeNet-5模型的測試檔案
#       [2]該檔案定義了【神經網路】的【訓練程式】
#       [3]main.py
#開發環境:
#       Win10+Tensorflow1.7.0+OpenCv3.3+Python3.5+PyCharm5.0.3
#時間地點:
#       陝西師範大學 文津樓 2018.5.6
#參考資料:
#       http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
#涉及的知識點:
#========================================================================================================
import time
import numpy as np
import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data

import mnist_train              #[1]載入mnist_train.py檔案中定義的函式和常量
import mnist_inference          #[2]載入mnist_inference.py檔案中定義的函式和常量

EVAL_INTERVAL_SECS = 10
#========================================================================================================
#函式說明:
#   網路模型在測試集上的測試,用於網路模型訓練和模型質量的評估
#========================================================================================================
def evaluate(mnist):
    with tf.Graph().as_default() as g: #[1]定義一個計算圖類Graph的類物件,並建立一個新的計算圖g
                                       #[2]為[輸入層]和[輸出層]定義[兩個佔位符]
        x                  = tf.placeholder(tf.float32, [mnist.validation.num_examples,
                                                         mnist_inference.IMAGE_SIZE,
                                                         mnist_inference.IMAGE_SIZE,
                                                         mnist_inference.NUM_CHANNELS],
                                                         name='x-input')
        y_                 = tf.placeholder(tf.float32,[None,mnist_inference.OUTPUT_NODE],name='y-input')
        validate_feed      = {x:np.reshape(mnist.validation.images,(mnist.validation.num_examples,
                                                                    mnist_inference.IMAGE_SIZE,
                                                                    mnist_inference.IMAGE_SIZE,
                                                                    mnist_inference.NUM_CHANNELS)),y_:mnist.validation.labels}
                                       #[3]直接通過封裝好的函式來計算前向傳播的結果
        y                  = mnist_inference.inference(x,False,None)
                                       #[4]使用前向傳播的結果,計算正確率.僅僅測試預測值和正確值在第一維度上是否相等
        correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
                                       #[5]因為上述比較的結果是布林值,下面首先將布林值轉化為浮點數,然後計算平均值
        accuracy           = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
                                       #[6]例項化一個滑動平均模型的類物件,這將會使得模型在測試集上更加的健壯(Robust)
        variable_averages  = tf.train.ExponentialMovingAverage(mnist_train.MOVING_AVERAGE_DECAY)
                                       #[7]下面的函式可以直接生成tf.train.Saver所需要的變數重新命名字典
        variable_to_restore= variable_averages.variables_to_restore()
                                       #[8]該函式將會儲存執行Tensorflow執行所需要的全部資訊
        saver              = tf.train.Saver(variable_to_restore)
        #========================================[計算圖的定義階段完畢]=====================================
        #========================================[計算圖的執行階段開始]=====================================
        while True:
            with tf.Session() as sess: #[1]例項化一個會話Session的類物件,並重新命名為sess
                                       #[2]該函式將會通過檔案路徑找到CheckPoint目錄下的最新的模型檔名
                ckpt = tf.train.get_checkpoint_state(mnist_train.MODEL_SAVE_PATH)
                if ckpt and ckpt.model_checkpoint_path:
                                       #[3]載入模型
                    saver.restore(sess,ckpt.model_checkpoint_path)
                                       #[4]通過[檔名]得到[模型儲存時迭代的輪數]
                    global_step = ckpt.model_checkpoint_path.split('/')[-1].split('-')[-1]
                                       #[5]執行準確率的計算節點
                    accuracy_score = sess.run(accuracy,feed_dict=validate_feed)
                                       #[6]輸出迭代的輪數和準確率
                    print("After %s training steps.validation""accuracy = %g"%(global_step,accuracy_score))
                else:
                    print('No checkpoint file found')
                    return
                time.sleep(EVAL_INTERVAL_SECS)
#========================================================================================================
#模組說明:
#       主程式的入口點
#========================================================================================================
def main(argv=None):
    print('[Info]TensorFlow_Version is',tf.__version__)      #[1]定義處理MNIST資料集的類,這個類在初始化時會自動下載資料
    mnist = input_data.read_data_sets('F:/MnistSet/',one_hot=True)
    #mnist_train.train(mnist)
    evaluate(mnist)                                          #[2]呼叫train函式進行模型的訓練
#========================================================================================================
#模組說明:
#       Tensorflow提供的一個主程式入口,tf.app.run函式將會呼叫上面的main函式
#========================================================================================================
if __name__ == '__main__':
    tf.app.run()

相關文章