tensorflow學習筆記四:mnist例項--用簡單的神經網路來訓練和測試

weixin_34292959發表於2016-09-08

剛開始學習tf時,我們從簡單的地方開始。卷積神經網路(CNN)是由簡單的神經網路(NN)發展而來的,因此,我們的第一個例子,就從神經網路開始。

神經網路沒有卷積功能,只有簡單的三層:輸入層,隱藏層和輸出層。

資料從輸入層輸入,在隱藏層進行加權變換,最後在輸出層進行輸出。輸出的時候,我們可以使用softmax迴歸,輸出屬於每個類別的概率值。借用極客學院的圖表示如下:

 

其中,x1,x2,x3為輸入資料,經過運算後,得到三個資料屬於某個類別的概率值y1,y2,y3. 用簡單的公式表示如下:

在訓練過程中,我們將真實的結果和預測的結果相比(交叉熵比較法),會得到一個殘差。公式如下:

y 是我們預測的概率值, y' 是實際的值。這個殘差越小越好,我們可以使用梯度下降法,不停地改變W和b的值,使得殘差逐漸變小,最後收斂到最小值。這樣訓練就完成了,我們就得到了一個模型(W和b的最優化值)。

完整程式碼如下:

import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
x = tf.placeholder(tf.float32, [None, 784])
y_actual = tf.placeholder(tf.float32, shape=[None, 10])
W = tf.Variable(tf.zeros([784,10]))        #初始化權值W
b = tf.Variable(tf.zeros([10]))            #初始化偏置項b
y_predict = tf.nn.softmax(tf.matmul(x,W) + b)     #加權變換並進行softmax迴歸,得到預測概率
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_actual*tf.log(y_predict),reduction_indies=1))   #求交叉熵
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)   #用梯度下降法使得殘差最小

correct_prediction = tf.equal(tf.argmax(y_predict,1), tf.argmax(y_actual,1))   #在測試階段,測試準確度計算
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))                #多個批次的準確度均值

init = tf.initialize_all_variables()
with tf.Session() as sess:
    sess.run(init)
    for i in range(1000):               #訓練階段,迭代1000次
        batch_xs, batch_ys = mnist.train.next_batch(100)           #按批次訓練,每批100行資料
        sess.run(train_step, feed_dict={x: batch_xs, y_actual: batch_ys})   #執行訓練
        if(i%100==0):                  #每訓練100次,測試一次
            print "accuracy:",sess.run(accuracy, feed_dict={x: mnist.test.images, y_actual: mnist.test.labels})

每訓練100次,測試一次,隨著訓練次數的增加,測試精度也在增加。訓練結束後,1W行資料測試的平均精度為91%左右,不是太高,肯定沒有CNN高。

相關文章