TensorFlow系列專題(六):實戰專案Mnist手寫資料集識別
編輯 | 安可
出品 | 磐創AI技術團隊
目錄:
導讀
MNIST資料集
資料處理
單層隱藏層神經網路的實現
多層隱藏層神經網路的實現
一. 導讀
就像我們在學習一門程式語言時總喜歡把“Hello World!”作為入門的示例程式碼一樣,MNIST手寫數字識別問題就像是深度學習的“Hello World!”。透過這個例子,我們將瞭解如何將資料轉化為神經網路所需要的資料格式,以及如何使用TensorFlow搭建簡單的單層和多層的神經網路。
二. MNIST資料集
MNIST資料集可以從網站http://yann.lecun.com/exdb/mnist/上下載,需要下載的資料集總共有4個檔案,其中“train-images-idx3-ubyte.gz”是訓練集的圖片,總共有60000張,“train-labels-idx1-ubyte.gz”是訓練集圖片對應的類標(0~9)。“t10k-images-idx3-ubyte.gz”是測試集的圖片,總共有10000張,“t10k-labels-idx1-ubyte.gz”是測試集圖片對應的類標(0~9)。TensorFlow的示例程式碼中已經對MNIST資料集的處理進行了封裝,但是作為第一個程式,我們希望帶著讀者從資料處理開始做,資料處理在整個機器學習專案中是很關鍵的一個環節,因此有必要在第一個專案中就讓讀者體會到它的重要性。
我們將下載的壓縮檔案解壓後會發現資料都是以二進位制檔案的形式儲存的,以訓練集的影像資料為例:
表1 訓練集影像資料的檔案格式
如表1所示,解壓後的訓練集影像資料“train-images-idx3-ubyte”檔案,其前16個位元組的內容是檔案的基本資訊,分別是magic number(又稱為幻數,用來標記檔案的格式)、影像樣本的數量(60000)、每張影像的行數以及每張影像的列數。由於每張影像的大小是28*28,所以我們從編號0016的位元組開始,每次讀取28*28=784個位元組,即讀取了一張完整的影像。我們讀取的每一個位元組代表一個畫素,取值範圍是[0,255],畫素值越接近0,顏色越接近白色,畫素值越接近255,顏色越接近黑色。
訓練集類標檔案的格式如下:
表2 訓練集類標資料的檔案格式
如上表所示,訓練集類標資料檔案的前8個位元組記錄了檔案的基本資訊,包括magic number和類標項的數量(60000)。從編號0008的位元組開始,每一個位元組就是一個類標,類標的取值範圍是[0,9],類標直接標明瞭對應的影像樣本的真實數值。如圖1所示,我們將部分資料進行了視覺化。測試集的影像資料和類標資料的檔案格式與訓練集一樣。
圖1 訓練集影像資料視覺化效果
三. 資料處理
在開始實現神經網路之前,我們要先準備好資料。雖然MNIST資料集本身就已經處理過了,但是我們還是需要做一些封裝以及簡單的特徵工程。我們定義一個MnistData類用來管理資料:
在“__init__”方法中初始化了“MnistData”類相關的一些引數,其中“train_image_path”和“train_label_path”分別是訓練集資料和類標的檔案路徑,“test_image_path”和“test_label_path”分別是測試集資料和類標的檔案路徑。
接下來我們要實現“MnistData”類的另一個方法“get_data”,該方法實現了Mnist資料集的讀取以及資料的預處理。
由於Mnist資料是以二進位制檔案的形式儲存,所以我們需要用到struct模組來處理檔案,uppack_from函式用來解包二進位制檔案,第42行程式碼中,引數“>IIII”指定讀取16個位元組的內容,這正好是檔案的基本資訊部分。其中“>”代表二進位制檔案是以大端法儲存,“IIII”代表四個int型別的長度,這裡一個int型別佔4個位元組。引數“image_file”是堯都區的檔案,“image_index”是偏移量。如果要連續的讀取檔案內容,每讀取一部分資料後就要增加相應的偏移量。
第51行程式碼中,我們對資料進行了歸一化處理,關於歸一化我們在第一章中有介紹。在後面兩節實現神經網路模型的時候,讀者可以嘗試註釋掉歸一化的這行程式碼,比較一下做了歸一化和不做歸一化,模型的效果有什麼差別。
最後,我們要實現一個“get_batch”方法。在訓練模型的時候,我們通常會用訓練集資料訓練多個回合(epoch),每個回合都會用且只用一次訓練集中的每一條資料。因為我們使用隨機梯度下降的方式來更新引數,所以每個回合中,我們會把訓練集資料分為多個批次(batch)送進模型中去訓練,每次送進模型的資料量的大小為“batch_size”。因此,我們需要將資料按“batch_size”進行劃分。
在第68行程式碼中,我們使用了“random”模組的“shuffle”方法對資料進行了“洗牌”,即打亂了資料原來的順序,“shuffle”操作的目的是為了讓各類樣本資料儘可能混合在一起,從而在模型訓練的過程中,各類樣本都可以對模型的引數變化產生影響。不過需要記住的是,“shuffle”操作並不總是必須的,而且是否可以使用“shuffle”操作也要看具體的資料來定。
到這裡我們已經實現了Mnist資料的讀取和預處理,在後面兩小節的內容裡,我們會分別實現一個單層的神經網路和一個多層的前饋神經網路模型,實現Mnist手寫數字的識別問題。
四. 單層隱藏層神經網路的實現
介紹完MNIST資料集之後,我們現在可以開始動手實現一個神經網路來解決手寫數字識別的問題了,我們先從一個簡單的兩層(一層隱藏層)神經網路開始。
本小節所實現的單層神經網路結構如圖2所示。每張圖片的大小為[28*28],我們將其轉為長度為784的向量作為網路的輸入。隱藏層有10個神經元,在這個簡單的神經網路中我們沒有在隱藏層中使用啟用函式。在隱藏層後面我們加了一個Softmax層,用來將隱藏層的輸出直接轉化為模型的預測結果。
圖2 實現Mnist手寫數字識別的兩層神經網路結構
接下來我們實現具體的程式碼,首先匯入上一小節中我們實現的資料處理的類以及TensorFlow的包:
建立一個Session會話,並定義好相關的變數:
“epochs”是我們想要訓練的總輪數,每一輪都會使用訓練集的所有資料去訓練一遍模型。由於我們使用隨機梯度下降方法更新引數,所以不會一次把所有的資料送進模型去訓練,而是按批次訓練,“batch_size”是我們定義的一個批次的資料量的大小,這裡我們設定了100,那麼每個“batch”就會送100個樣本到模型中去訓練,一輪訓練的“batch”數等於總的訓練集數量除以“batch_size”。“learning_rate”是我們定義的學習率,即模型引數更新的速率。
接下來我們定義模型的引數:
第16行程式碼定義了輸入樣本的placeholder,第18和第19行程式碼定義了該單層神經網路隱藏層的權重矩陣和偏置項。根據圖3-16所示的網路結構,輸入向量長度為784,隱藏層有10個神經元,因此我們定義權重矩陣的大小為784行10列,偏置項的向量長度為10。在第24行程式碼中,我們先將輸入的樣本資料轉換為一維的向量,然後進行的運算,計算的結果再經由Softmax計算得到最終的預測結果。
定義完網路的引數後我們還需要定義損失函式和最佳化器:
第28行我們定義了交叉熵損失函式,關於交叉熵損失函式在本章第三小節中我們已經做了介紹,“”計算的是一個“batch”的訓練樣本資料的交叉熵,每個樣本資料都有一個值,TensorFlow的“reduce_mean”方法將這個“batch”的資料的交叉熵求了平均值,作為這個“batch”最終的交叉熵損失值。
第29和30行程式碼中,我們定義了一個梯度下降最佳化器“GradientDescentOptimizer”,並設定了學習率為“learning_rate”以及最佳化目標為“cross_entropy”。
接下來我們還需要實現模型的評估:
“tf.equal()”方法用於比較兩個矩陣或向量相應位置的元素是否相等,相等為“True”,不等為“False”。“tf.cast”用於將“True”和“False”轉換為“1”和“0”,“tf.reduce_mean”對轉換後的資料求平均值,該值即為模型在測試集上預測結果的準確率。最後,我們實現模型的訓練和預測:
因為我們的“batch_size”設定為100,Mnist資料集的訓練資料有60000條,因此我們訓練600個“batch”正好是一輪。第50行程式碼中,我們訓練完的模型對測試集資料進行了預測,並輸出了預測的準確率,結果為0.9228。
五. 多層神經網路的實現
多層神經網路的實現也很簡單,我們只需要在上一小節的程式碼基礎上對網路的結構稍作修改即可,我們先來看一下這一小節裡要實現的多層(兩層隱藏層)神經網路的結構:
圖3 實現Mnist手寫數字識別的多層神經網路結構
如上圖所示,這裡我們增加了一層隱藏層,實現的是一個三層神經網路。與上一小節的兩層神經網路不同的是,除了增加了一層隱藏層,在第一層隱藏層中我們還是用了“Sigmoid”啟用函式。
實現三層神經網路我們只需要在上一小節的程式碼基礎上對網路的引數做一些修改:
因為網路中有兩層隱藏層,所以我們要為每一層隱藏層都定義一個權重矩陣和偏置項,我們設定第一層隱藏層的神經元數量為200,第二次隱藏層的神經元數量為10。這裡我們初始化權重矩陣的時候沒有像之前那樣直接賦值為0,而是使用“tf.truncated_normal”函式為其賦初值,當然全都賦值為0也可以,不過需要訓練較多輪,模型的引數才會慢慢接近較優的值。為引數初始化一個非零值,在網路層數較深,模型較複雜的時候,可以加快引數收斂的速度。
定義好模型引數之後,就可以實現網路的具體結構了:
這裡具體的計算和上一節內容一樣,不過因為有兩層隱藏層,因此我們需要將第一層隱藏層的輸出再作為第二層隱藏層的輸入,並且第一層隱藏層使用了“Sigmoid”啟用函式。第二層隱藏層的輸出經過“Softmax”層計算後,直接輸出預測的結果。最終在測試集上的準確率為0.9664。
到這裡我們已經介紹完基本的前饋神經網路的內容了,這一章的內容是深度神經網路的基礎,理解本章的內容對於後續內容的學習會很有幫助。從下一章開始,我們要正式開始深度神經網路的學習了。
原文連結:https://mp.weixin.qq.com/s/bWMkhcGUELJq62FARKrgow
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31555081/viewspace-2221139/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- mnist手寫數字識別——深度學習入門專案(tensorflow+keras+Sequential模型)深度學習Keras模型
- 用tensorflow2實現mnist手寫數字識別
- Tensorflow2.0-mnist手寫數字識別示例
- 鴻蒙專案實戰(六):識別本地圖片鴻蒙地圖
- matlab練習程式(神經網路識別mnist手寫資料集)Matlab神經網路
- TensorFlow 入門(MNIST資料集)
- 使用TensorFlow實現手寫識別(Softmax)
- 人臉識別檢測專案實戰
- Pytorch搭建MyNet實現MNIST手寫數字識別PyTorch
- NLP專案實戰02:英文文字識別
- TensorFlow.NET機器學習入門【5】採用神經網路實現手寫數字識別(MNIST)機器學習神經網路
- 在PaddlePaddle上實現MNIST手寫體數字識別
- Tensorflow實現RNN(LSTM)手寫數字識別RNN
- 【原創】python實現BP神經網路識別Mnist資料集Python神經網路
- 【TensorFlow篇】--Tensorflow框架實現SoftMax模型識別手寫數字集框架模型
- 使用tensorflow操作MNIST資料
- 靶場專案編寫實戰
- tensorflow.js 手寫數字識別JS
- 專案實戰小問題:
- Logistic迴歸、softmax迴歸以及tensorflow實現MNIST識別
- 學習Pytorch+Python之MNIST手寫字型識別PyTorchPython
- JavaScript玩轉機器學習-Tensorflow.js專案實戰JavaScript機器學習JS
- 大資料爬蟲專案實戰教程大資料爬蟲
- TensorFlow系列專題(二):機器學習基礎機器學習
- TensorFlow系列專題(一):機器學習基礎機器學習
- 打造全網最全電商實戰專案系列教程[資料庫概括篇]資料庫
- Flask實戰腳手架-專案建立Flask
- MNIST資料集介紹
- 大資料專案實戰之 --- 使用者畫像專案分析大資料
- Opencv專案實戰:14 手勢控制音量OpenCV
- 基於webpack4.x專案實戰3 - 手寫一個cliWeb
- 深度學習例項之基於mnist的手寫數字識別深度學習
- 從無到有構建vue實戰專案(六)Vue
- 企業級實戰大資料課程(六)-尹成-專題視訊課程大資料
- keras 手動搭建alexnet並訓練mnist資料集Keras
- 尋找手寫資料集MNIST程式的最佳引數(learning_rate、nodes、epoch)
- go語言實戰教程:實戰專案資源匯入和專案框架搭建Go框架
- 【專案實戰】---EasyUI資料表格的行風格UI