【Tensorflow_DL_Note10】TensorFlow神經網路程式設計框架樣例MNIST訓練模組

馬衛飛發表於2018-05-04
# coding=UTF-8
# ========================================================================================================
# 檔案說明:
#       [1]mnist介面檔案
#       [2]該檔案定義了【神經網路】【前向傳播的過程】和【神經網路中的引數】
#       [3]mnist_inference.py
# 開發環境:
#       Win10+Tensorflow+OpenCv3.3+Python3.5+PyCharm5.0.3
# 時間地點:
#       陝西師範大學 文津樓 2018.5.2
# 參考資料:
#       http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
# 涉及的知識點:
#       [1]Tensorflow中的【變數管理機制】
#       [2]tf.get_variable()
#       [3]tf.variable_scope()
# =======================================================================================================
import tensorflow as tf
#========================================================================================================
#函式原型:
#       get_variable(name,shape=None,dtype=None,initializer=None,regularizer=None,trainable=True,collections=None,
#                 caching_device=None,partitioner=None,validate_shape=True,use_resource=None,custom_getter=None,
#                 constraint=None)
#函式說明:
#       [1]建立一個名為name,維度為shape,型別為dtype,初始化值為initializer的Tensorflow變數
#       [2]tf.get_variable()是Tensorflow中的【變數管理函式】
#       [3]當使用tf.get_variable()函式用來獲取變數的時候,tf._get_variable()必須與tf.variable_scope()函式互相
#          配合使用
#========================================================================================================
#========================================================================================================
#函式原型:
#       add_to_collection(name, value)
#函式說明:
#       [1]add_to_collection(name,value)為Graph的一個方法
#       [2]可以簡單的認為Graph維護了一個字典,其中key為name,value為list,而add_to_collection就是把變數通過對應的
#          key把新增到list中去
#========================================================================================================
#========================================================================================================
#模組說明:
#       定義【神經網路結構】相關的【神經網路引數】
#========================================================================================================
INPUT_NODE  = 784          #[1]神經網路【輸入層】的節點數=Img_Width x Img_Height x ImgChannel=28x28x1
OUTPUT_NODE = 10           #[2]神經網路【輸出層】的節點數=將要分類的類別數
LAYER1_NODE = 500          #[3]層節點數
#========================================================================================================
#函式說明:
#       建立神經網路中的【權值變數】
#返回值:
#       返回已經建立的權值變數
#========================================================================================================
def get_weight_variable(shape, regularizer):
    weights = tf.get_variable("weights", shape, initializer=tf.truncated_normal_initializer(stddev=0.1))
    if regularizer != None:
        tf.add_to_collection('losses', regularizer(weights))
    return weights

#========================================================================================================
#函式說明:
#       定義神經網路的前向傳播過程
#返回值:
#       前向傳播的結果
#========================================================================================================
def inference(input_tensor, regularizer):
    with tf.variable_scope('layer1'):
        weights = get_weight_variable([INPUT_NODE, LAYER1_NODE], regularizer)
        biases  = tf.get_variable("biases", [LAYER1_NODE], initializer=tf.constant_initializer(0.0))
        layer1  = tf.nn.relu(tf.matmul(input_tensor, weights) + biases)

    with tf.variable_scope('layer2'):
        weights = get_weight_variable([LAYER1_NODE, OUTPUT_NODE], regularizer)
        biases  = tf.get_variable("biases", [OUTPUT_NODE], initializer=tf.constant_initializer(0.0))
        layer2  = tf.matmul(layer1, weights) + biases

    return layer2
#coding=UTF-8
#========================================================================================================
#檔案說明:
#       [1]訓練檔案
#       [2]該檔案定義了【神經網路】的【訓練程式】
#       [3]main.py
#開發環境:
#       Win10+Tensorflow1.7.0+OpenCv3.3+Python3.5+PyCharm5.0.3
#時間地點:
#       陝西師範大學 文津樓 2018.5.2
#參考資料:
#       http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
#涉及的知識點:
#【學習率】
#       [1]學習率:在訓練神經網路的時候,我們需要通過設定【學習率,learning_rate】來【控制】【引數的更新速度】
#       [2]學習率決定了每次每次引數的更新的幅度,如果幅度過大,那麼可能導致引數在極優值得兩側來回移動;相反,學習率過低,
#          雖然可以保證收斂,但是這回大大的降低優化的速度
#       [3]因此,學習率的設定不能過大,也不能過低。為了解決【學習率】的這個問題,Tensorflow提供了一種更加靈活的學習率
#          設定方法----【指數衰減法】。tf.train.exponential_decay函式實現了【指數衰減學習率】
#       [4]【指數衰減學習率】:通過這個函式,可以先使用較大的學習率來快速的得到一個比較優的解,然後,隨著迭代的繼續逐步
#          衰減小學習率,使得模型在訓練後更加穩定,該函式涉及三個引數:
#                  [1]learning_rate-----初始學習率
#                  [2]decay_rate--------衰減係數
#                  [3]decay-steps-------衰減速度
#【滑動平均模型】
#       總結一下神經網路優化的七大方法:
#          [1]神經網路的結構
#                 [1]全連線神經網路
#                 [2]串聯的卷積神經網路--LeNet-5,AlexNet
#                 [3]並聯的卷積神經網路--Inception-V3
#                 [4]全卷機神經網路-----FCN
#                 [5]對抗生成網路-------GAN
#          [2]神經網路的層數
#          [3]損失函式
#                 [1]分類問題------softmax+交叉熵損失
#                 [2]迴歸問題------均方誤差MSE損失函式
#          [4]神經網路優化演算法
#                 [1]反向傳播演算法----針對的是整個神經網路模型在訓練資料上的損失函式的優化
#                 [2]梯度下降演算法----針對的是單個引數的優化
#          [5]學習率的設定-------指數衰減學習率
#                 [1]基礎學習率
#                 [2]當前迭代輪數
#                 [3]總迭代輪數 = 訓練樣本的總數/每個Batch中的樣本數
#                 [4]學習率衰減率
#          [6]過擬合問題---------正則化的損失函式,一般模型的正則化指代的是神經網路引數的正則化,偏置項一般不進行正則化
#          [7]滑動平均模型-------衰減率decay
#========================================================================================================
import os
import mnist_inference
import tensorflow as tf
from   tensorflow.examples.tutorials.mnist import input_data
#========================================================================================================
#模組說明:
#       配置神經網路的引數,訓練神經網路的引數
#========================================================================================================
BATCH_SIZE           = 100              #[1]每個批次提供的影象的數量
LEARNING_RATE_BASE   = 0.8              #[2][指數衰減學習率]中的[初始學習率][基礎學習率]
LEARNING_RATE_DECAY  = 0.99             #[3][指數衰減學習率]中的[衰減係數][學習率的衰減率]
REGULARIZATION_RATE  = 0.0001           #[4]描述模型複雜程度的正則化項在損失函式中的係數
TRAINING_STEPS       = 30000            #[5]訓練的迭代數
MOVING_AVERAGE_DECAY = 0.99             #[6][滑動平均模型]的[衰減率],控制模型更新的速度
MODEL_SAVE_PATH      = "F:/MnistSet/"   #[7]模型儲存的路徑
MODEL_NAME           = "mnist_model"    #[8]模型的名的字首mnist_model-29001.meta
#========================================================================================================
#函式說明:
#       配置神經網路的引數,訓練神經網路的引數
#========================================================================================================
def train(mnist):
    x  = tf.placeholder(tf.float32, [None, mnist_inference.INPUT_NODE],  name='x-input')
    y_ = tf.placeholder(tf.float32, [None, mnist_inference.OUTPUT_NODE], name='y-input')

    regularizer = tf.contrib.layers.l2_regularizer(REGULARIZATION_RATE)#[1]返回一個正則化生成函式
    y           = mnist_inference.inference(x, regularizer)            #[2]呼叫前向傳播函式
    global_step = tf.Variable(0, trainable=False)                      #[3]定義儲存訓練輪數的變數,該引數不可優化
                                                            #[1]定義一個滑動平均的類,指定衰減率和num_updates引數
    variable_averages     = tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY, global_step)
                                                            #[2]在所有代表神經網路引數的變數上使用滑動平均
    variables_averages_op = variable_averages.apply(tf.trainable_variables())
                                                            #[3]計算交叉熵,作為刻畫預測值和真實值之間差距的損失函式
    cross_entropy         = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=tf.argmax(y_,1),logits=y)
    cross_entropy_mean    = tf.reduce_mean(cross_entropy)   #[4]計算當前batch所有樣例的[交叉熵平均值]
                                                            #[5]總損失等於交叉熵損失和正則化損失之和[模型的正則化損失]
    loss                  = cross_entropy_mean + tf.add_n(tf.get_collection('losses'))
                                                            #[6]設定指數衰減學習率
    learning_rate         = tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,
                                              mnist.train.num_examples / BATCH_SIZE, LEARNING_RATE_DECAY,staircase=True)
                                                            #[7]使用優化演算法來優化模型的損失函式
    train_step            = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)
                                                            #[8]指定計算圖中運算操作的依賴和計算順序
    with tf.control_dependencies([train_step, variables_averages_op]):
        train_op = tf.no_op(name='train')                   #[9]確保上面的指定的運算操作按照指定的順序和依賴執行

    saver = tf.train.Saver()                                #[1]定義一個持久化類的類物件saver
    with tf.Session() as sess:                              #[2]建立一個會話Session,並通過python的上下文管理器來管理這個會話
        tf.global_variables_initializer().run()             #[3]使用建立好的會話sess執行Tensorflow的變數初始化操作

        for i in range(TRAINING_STEPS):                     #[1]迭代的訓練神經網路
            xs, ys = mnist.train.next_batch(BATCH_SIZE)     #[2]從資料集得到下一輪的訓練樣本
                                                            #[3]使用會話執行訓練過程
            _, loss_value, step = sess.run([train_op, loss, global_step], feed_dict={x: xs, y_: ys})
            if i % 1000 == 0:                               #[4]每1000次,儲存一次模型
                                                            #[5]輸出當前的訓練情況,輸出迭代的輪數和模型在當前batch上的損失函式大小
                print('After {0:d} training step(s), loss on training batch is {1:g} '.format(step, loss_value))
                                                            #[6]儲存當前的模型,這裡給出了global_step引數,這樣可以在每個儲存模型的檔名尾部加上訓練的輪數
                saver.save(sess, os.path.join(MODEL_SAVE_PATH, MODEL_NAME), global_step=global_step)
#========================================================================================================
#模組說明:
#       主程式的入口點
#========================================================================================================
def main(argv=None):
    print('[Info]TensorFlow_Version is',tf.__version__)     #[1]定義處理MNIST資料集的類,這個類在初始化時會自動下載資料
    mnist = input_data.read_data_sets('F:/MnistSet/',one_hot=True)
    train(mnist)                                            #[2]呼叫train函式進行模型的訓練
#========================================================================================================
#模組說明:
#       Tensorflow提供的一個主程式入口,tf.app.run函式將會呼叫上面的main函式
#========================================================================================================
if __name__ == '__main__':
    tf.app.run()




相關文章