# coding=UTF-8
# ========================================================================================================
# 檔案說明:
# [1]LeNet-5模型
# [2]該檔案定義了【神經網路】【前向傳播的過程】和【神經網路中的引數】
# [3]mnist_inference.py
# 開發環境:
# Win10+Tensorflow+OpenCv3.3+Python3.5+PyCharm5.0.3
# 時間地點:
# 陝西師範大學 文津樓 2018.5.6
# 參考資料:
# http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
# 涉及的知識點:
# [1]Tensorflow中的【變數管理機制】
# [2]tf.get_variable()
# [3]tf.variable_scope()
# =======================================================================================================
import tensorflow as tf
# ========================================================================================================
# 模組說明:
# 配置神經網路的引數
# =======================================================================================================
INPUT_NODE = 784 #[1]輸入層節點的數目
OUTPUT_NODE = 10 #[2]輸出層節點的數目
IMAGE_SIZE = 28 #[3]輸入影象的尺寸
NUM_CHANNELS = 1 #[4]輸入影象的深度/通道
NUM_LABELS = 10 #[5]影象分類的類別數
CONV1_DEEP = 32 #[6]第一卷積層的深度
CONV1_SIZE = 5 #[7]第一卷積層卷積核的大小
CONV2_DEEP = 64 #[8]第二卷積層的深度
CONV2_SIZE = 5 #[9]第二卷積層的卷積核大小
FC_SIZE = 512 #[10]全連線層的節點個數
#========================================================================================================
#函式說明:
# [1]定義卷積神經網路的前向傳播過程
# [2]這裡新增了一個新的引數train,用於區分訓練過程和測試過程。
# [3]在這個程式中,將用到dropout方法,dropout可以進一步提升模型的可靠性並防止過擬合,dropout過程只在訓練的時
# 候使用.
#=======================================================================================================
def inference(input_tensor, train, regularizer):
with tf.variable_scope('layer1-conv1'): #[1]該函式生成了一個Tensorflow的名稱空間
conv1_weights = tf.get_variable( #[2]通過該函式建立卷積核的權重變數,卷積核引數的個數,只和
"weight",
[CONV1_SIZE, #[1]卷積核的尺寸
CONV1_SIZE,
NUM_CHANNELS, #[2]卷積核的深度
CONV1_DEEP], #[3]當前節點矩陣的深度
initializer=tf.truncated_normal_initializer(stddev=0.1))
#[3]建立第一卷積層的偏執項變數
conv1_biases = tf.get_variable("bias", [CONV1_DEEP], initializer=tf.constant_initializer(0.0))
#[4]Tensorflow中的該函式用來實現卷積層的前向傳播演算法
conv1 = tf.nn.conv2d(input_tensor, #[1]當前層的節點矩陣,這是一個四維矩陣
conv1_weights, #[2]第二個引數為卷積層的權重
strides=[1, 1, 1, 1], #[3]第三個引數,為不同緯度上的步長
padding='SAME') #[4]第四個引數為是否填充
#[5]將前向傳播的結果通過Relu啟用函式,完成去線性化
relu1 = tf.nn.relu(tf.nn.bias_add(conv1, conv1_biases))
with tf.name_scope("layer2-pool1"): #[6]該函式生成一個Tensorflow的名稱空間
#[7]Tensorflow中最大池化層的前向傳播函式的實現
pool1 = tf.nn.max_pool(relu1, #[1]第一個引數為一個四維的節點矩陣
ksize = [1,2,2,1], #[2]池化層Filter的尺寸
strides=[1,2,2,1], #[3]Filter在各個方向上的滑動步長
padding="SAME") #[4]是否用0填充
with tf.variable_scope("layer3-conv2"): #[8]建立第三卷卷積層的權值變數並實現前向傳播過程
conv2_weights = tf.get_variable( #[9]這一層的輸入為14x14x32矩陣
"weight", [CONV2_SIZE, CONV2_SIZE, CONV1_DEEP, CONV2_DEEP],
initializer=tf.truncated_normal_initializer(stddev=0.1))
#[10]輸出為14x14x64
conv2_biases = tf.get_variable("bias", [CONV2_DEEP], initializer=tf.constant_initializer(0.0))
conv2 = tf.nn.conv2d(pool1, conv2_weights, strides=[1, 1, 1, 1], padding='SAME')
relu2 = tf.nn.relu(tf.nn.bias_add(conv2, conv2_biases))
with tf.name_scope("layer4-pool2"): #[11]第四池化層,輸出為7x7x64
pool2 = tf.nn.max_pool(relu2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')
pool_shape = pool2.get_shape().as_list() #[12]該函式可以得到第四池化層輸出矩陣的維度,而不需要手工計算
nodes = pool_shape[1] * pool_shape[2] * pool_shape[3]
#[13]通過該函式將第四層的輸出變成一個batch的向量
reshaped = tf.reshape(pool2, [pool_shape[0], nodes])
with tf.variable_scope('layer5-fc1'): #[14]建立第五全連線層的變數並實現前向傳播過程,這一層的輸入被
#拉直後是一組向量,向量長度為3136,輸出是一組長度為512的向量.
fc1_weights = tf.get_variable("weight", [nodes, FC_SIZE],
initializer=tf.truncated_normal_initializer(stddev=0.1))
if regularizer != None: #[15]只有全連線層的權重需要加入正則化
tf.add_to_collection('losses', regularizer(fc1_weights))
fc1_biases = tf.get_variable("bias", [FC_SIZE], initializer=tf.constant_initializer(0.1))
fc1 = tf.nn.relu(tf.matmul(reshaped, fc1_weights) + fc1_biases)
if train:
fc1 = tf.nn.dropout(fc1, 0.5)
with tf.variable_scope('layer6-fc2'):
fc2_weights = tf.get_variable("weight", [FC_SIZE, NUM_LABELS],
initializer=tf.truncated_normal_initializer(stddev=0.1))
if regularizer != None:
tf.add_to_collection('losses', regularizer(fc2_weights))
fc2_biases = tf.get_variable("bias", [NUM_LABELS], initializer=tf.constant_initializer(0.1))
logit = tf.matmul(fc1, fc2_weights) + fc2_biases
return logit
#coding=UTF-8
#========================================================================================================
#檔案說明:
# [1]LeNet-5模型
# [2]該檔案定義了【神經網路】的【訓練程式】
# [3]mnist_train.py
#開發環境:
# Win10+Tensorflow1.7.0+OpenCv3.3+Python3.5+PyCharm5.0.3
#時間地點:
# 陝西師範大學 文津樓 2018.5.6
#參考資料:
# http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
#涉及的知識點:
#【學習率】
# [1]學習率:在訓練神經網路的時候,我們需要通過設定【學習率,learning_rate】來【控制】【引數的更新速度】
# [2]學習率決定了每次每次引數的更新的幅度,如果幅度過大,那麼可能導致引數在極優值得兩側來回移動;相反,學習率過低,
# 雖然可以保證收斂,但是這回大大的降低優化的速度
# [3]因此,學習率的設定不能過大,也不能過低。為了解決【學習率】的這個問題,Tensorflow提供了一種更加靈活的學習率
# 設定方法----【指數衰減法】。tf.train.exponential_decay函式實現了【指數衰減學習率】
# [4]【指數衰減學習率】:通過這個函式,可以先使用較大的學習率來快速的得到一個比較優的解,然後,隨著迭代的繼續逐步
# 衰減小學習率,使得模型在訓練後更加穩定,該函式涉及三個引數:
# [1]learning_rate-----初始學習率
# [2]decay_rate--------衰減係數
# [3]decay-steps-------衰減速度
#【滑動平均模型】
# 總結一下神經網路優化的七大方法:
# [1]神經網路的結構
# [1]全連線神經網路
# [2]串聯的卷積神經網路--LeNet-5,AlexNet
# [3]並聯的卷積神經網路--Inception-V3
# [4]全卷機神經網路-----FCN
# [5]對抗生成網路-------GAN
# [2]神經網路的層數
# [3]損失函式
# [1]分類問題------softmax+交叉熵損失
# [2]迴歸問題------均方誤差MSE損失函式
# [4]神經網路優化演算法
# [1]反向傳播演算法----針對的是整個神經網路模型在訓練資料上的損失函式的優化
# [2]梯度下降演算法----針對的是單個引數的優化
# [5]學習率的設定-------指數衰減學習率
# [1]基礎學習率
# [2]當前迭代輪數
# [3]總迭代輪數 = 訓練樣本的總數/每個Batch中的樣本數
# [4]學習率衰減率
# [6]過擬合問題---------正則化的損失函式,一般模型的正則化指代的是神經網路引數的正則化,偏置項一般不進行正則化
# [7]滑動平均模型-------衰減率decay
#========================================================================================================
import os
import numpy as np
import mnist_inference
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
#========================================================================================================
#模組說明:
# 配置神經網路的引數,訓練神經網路的引數
#========================================================================================================
BATCH_SIZE = 100 #[1]每個批次提供的影象的數量
LEARNING_RATE_BASE = 0.8 #[2][指數衰減學習率]中的[初始學習率][基礎學習率]
LEARNING_RATE_DECAY = 0.99 #[3][指數衰減學習率]中的[衰減係數][學習率的衰減率]
REGULARIZATION_RATE = 0.0001 #[4]描述模型複雜程度的正則化項在損失函式中的係數
TRAINING_STEPS = 30000 #[5]訓練的迭代數
MOVING_AVERAGE_DECAY = 0.99 #[6][滑動平均模型]的[衰減率],控制模型更新的速度
MODEL_SAVE_PATH = "F:/MnistSet/" #[7]模型儲存的路徑
MODEL_NAME = "mnist_model" #[8]模型的名的字首mnist_model-29001.meta
#========================================================================================================
#函式說明:
# 配置神經網路的引數,訓練神經網路的引數
#========================================================================================================
def train(mnist):
x = tf.placeholder(tf.float32, [BATCH_SIZE, #[1]一個輸入的BATCH
mnist_inference.IMAGE_SIZE, #[2]後面的三個引數,對應一個節點矩陣
mnist_inference.IMAGE_SIZE,
mnist_inference.NUM_CHANNELS],
name='x-input')
y_ = tf.placeholder(tf.float32, [None, mnist_inference.OUTPUT_NODE], name='y-input')
regularizer = tf.contrib.layers.l2_regularizer(REGULARIZATION_RATE)#[1]返回一個正則化生成函式
y = mnist_inference.inference(x,True,regularizer) #[2]呼叫前向傳播函式
global_step = tf.Variable(0, trainable=False) #[3]定義儲存訓練輪數的變數,該引數不可優化
#[1]定義一個滑動平均的類,指定衰減率和num_updates引數
variable_averages = tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY, global_step)
#[2]在所有代表神經網路引數的變數上使用滑動平均
variables_averages_op = variable_averages.apply(tf.trainable_variables())
#[3]計算交叉熵,作為刻畫預測值和真實值之間差距的損失函式
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=tf.argmax(y_,1),logits=y)
cross_entropy_mean = tf.reduce_mean(cross_entropy) #[4]計算當前batch所有樣例的[交叉熵平均值]
#[5]總損失等於交叉熵損失和正則化損失之和[模型的正則化損失]
loss = cross_entropy_mean + tf.add_n(tf.get_collection('losses'))
#[6]設定指數衰減學習率
learning_rate = tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,
mnist.train.num_examples / BATCH_SIZE, LEARNING_RATE_DECAY,staircase=True)
#[7]使用優化演算法來優化模型的損失函式
train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)
#[8]指定計算圖中運算操作的依賴和計算順序
with tf.control_dependencies([train_step, variables_averages_op]):
train_op = tf.no_op(name='train') #[9]確保上面的指定的運算操作按照指定的順序和依賴執行
saver = tf.train.Saver() #[1]定義一個持久化類的類物件saver
with tf.Session() as sess: #[2]建立一個會話Session,並通過python的上下文管理器來管理這個會話
tf.global_variables_initializer().run() #[3]使用建立好的會話sess執行Tensorflow的變數初始化操作
for i in range(TRAINING_STEPS): #[1]迭代的訓練神經網路
xs, ys = mnist.train.next_batch(BATCH_SIZE) #[2]從資料集得到下一輪的訓練樣本
reshaped_xs = np.reshape(xs,(BATCH_SIZE,mnist_inference.IMAGE_SIZE,mnist_inference.IMAGE_SIZE,
mnist_inference.NUM_CHANNELS))
#[3]使用會話執行訓練過程
_, loss_value, step = sess.run([train_op, loss, global_step], feed_dict={x: reshaped_xs, y_: ys})
if i % 1000 == 0: #[4]每1000次,儲存一次模型
#[5]輸出當前的訓練情況,輸出迭代的輪數和模型在當前batch上的損失函式大小
print('After {0:d} training step(s), loss on training batch is {1:g} '.format(step, loss_value))
#[6]儲存當前的模型,這裡給出了global_step引數,這樣可以在每個儲存模型的檔名尾部加上訓練的輪數
saver.save(sess, os.path.join(MODEL_SAVE_PATH, MODEL_NAME), global_step=global_step)
#========================================================================================================
#模組說明:
# 主程式的入口點
#========================================================================================================
def main(argv=None):
print('[Info]TensorFlow_Version is',tf.__version__) #[1]定義處理MNIST資料集的類,這個類在初始化時會自動下載資料
mnist = input_data.read_data_sets('F:/MnistSet/',one_hot=True)
train(mnist) #[2]呼叫train函式進行模型的訓練
#========================================================================================================
#模組說明:
# Tensorflow提供的一個主程式入口,tf.app.run函式將會呼叫上面的main函式
#========================================================================================================
if __name__ == '__main__':
tf.app.run()
#coding=UTF-8
#========================================================================================================
#檔案說明:
# [1]LeNet-5模型的測試檔案
# [2]該檔案定義了【神經網路】的【訓練程式】
# [3]main.py
#開發環境:
# Win10+Tensorflow1.7.0+OpenCv3.3+Python3.5+PyCharm5.0.3
#時間地點:
# 陝西師範大學 文津樓 2018.5.6
#參考資料:
# http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html
#涉及的知識點:
#========================================================================================================
import time
import numpy as np
import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
import mnist_train #[1]載入mnist_train.py檔案中定義的函式和常量
import mnist_inference #[2]載入mnist_inference.py檔案中定義的函式和常量
EVAL_INTERVAL_SECS = 10
#========================================================================================================
#函式說明:
# 網路模型在測試集上的測試,用於網路模型訓練和模型質量的評估
#========================================================================================================
def evaluate(mnist):
with tf.Graph().as_default() as g: #[1]定義一個計算圖類Graph的類物件,並建立一個新的計算圖g
#[2]為[輸入層]和[輸出層]定義[兩個佔位符]
x = tf.placeholder(tf.float32, [mnist.validation.num_examples,
mnist_inference.IMAGE_SIZE,
mnist_inference.IMAGE_SIZE,
mnist_inference.NUM_CHANNELS],
name='x-input')
y_ = tf.placeholder(tf.float32,[None,mnist_inference.OUTPUT_NODE],name='y-input')
validate_feed = {x:np.reshape(mnist.validation.images,(mnist.validation.num_examples,
mnist_inference.IMAGE_SIZE,
mnist_inference.IMAGE_SIZE,
mnist_inference.NUM_CHANNELS)),y_:mnist.validation.labels}
#[3]直接通過封裝好的函式來計算前向傳播的結果
y = mnist_inference.inference(x,False,None)
#[4]使用前向傳播的結果,計算正確率.僅僅測試預測值和正確值在第一維度上是否相等
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
#[5]因為上述比較的結果是布林值,下面首先將布林值轉化為浮點數,然後計算平均值
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
#[6]例項化一個滑動平均模型的類物件,這將會使得模型在測試集上更加的健壯(Robust)
variable_averages = tf.train.ExponentialMovingAverage(mnist_train.MOVING_AVERAGE_DECAY)
#[7]下面的函式可以直接生成tf.train.Saver所需要的變數重新命名字典
variable_to_restore= variable_averages.variables_to_restore()
#[8]該函式將會儲存執行Tensorflow執行所需要的全部資訊
saver = tf.train.Saver(variable_to_restore)
#========================================[計算圖的定義階段完畢]=====================================
#========================================[計算圖的執行階段開始]=====================================
while True:
with tf.Session() as sess: #[1]例項化一個會話Session的類物件,並重新命名為sess
#[2]該函式將會通過檔案路徑找到CheckPoint目錄下的最新的模型檔名
ckpt = tf.train.get_checkpoint_state(mnist_train.MODEL_SAVE_PATH)
if ckpt and ckpt.model_checkpoint_path:
#[3]載入模型
saver.restore(sess,ckpt.model_checkpoint_path)
#[4]通過[檔名]得到[模型儲存時迭代的輪數]
global_step = ckpt.model_checkpoint_path.split('/')[-1].split('-')[-1]
#[5]執行準確率的計算節點
accuracy_score = sess.run(accuracy,feed_dict=validate_feed)
#[6]輸出迭代的輪數和準確率
print("After %s training steps.validation""accuracy = %g"%(global_step,accuracy_score))
else:
print('No checkpoint file found')
return
time.sleep(EVAL_INTERVAL_SECS)
#========================================================================================================
#模組說明:
# 主程式的入口點
#========================================================================================================
def main(argv=None):
print('[Info]TensorFlow_Version is',tf.__version__) #[1]定義處理MNIST資料集的類,這個類在初始化時會自動下載資料
mnist = input_data.read_data_sets('F:/MnistSet/',one_hot=True)
#mnist_train.train(mnist)
evaluate(mnist) #[2]呼叫train函式進行模型的訓練
#========================================================================================================
#模組說明:
# Tensorflow提供的一個主程式入口,tf.app.run函式將會呼叫上面的main函式
#========================================================================================================
if __name__ == '__main__':
tf.app.run()