深度學習筆記8:利用Tensorflow搭建神經網路
在筆記7中,筆者和大家一起入門了Tensorflow的基本語法,並舉了一些實際的例子進行了說明,終於告別了使用numpy手動搭建的日子。所以我們將繼續往下走,看看如何利用Tensorflow搭建神經網路模型。
儘管對於初學者而言使用Tensorflow看起來並不那麼習慣,需要各種步驟,但簡單來說,Tensorflow搭建模型實際就是兩個過程:建立計算圖和執行計算圖。在 deeplearningai 課程中,NG和他的課程組給我們提供了Signs Dataset(手勢)資料集,其中訓練集包括1080張64x64畫素的手勢圖片,並給定了 6 種標註,測試集包括120張64x64的手勢圖片,我們需要對訓練集構建神經網路模型然後對測試集給出預測。
先來簡單看一下資料集:
# Loading the datasetX_train_orig, Y_train_orig, X_test_orig, Y_test_orig, classes = load_dataset()# Flatten the training and test imagesX_train_flatten = X_train_orig.reshape(X_train_orig.shape[0], -1).T
X_test_flatten = X_test_orig.reshape(X_test_orig.shape[0], -1).T# Normalize image vectorsX_train = X_train_flatten/255.X_test = X_test_flatten/255.# Convert training and test labels to one hot matricesY_train = convert_to_one_hot(Y_train_orig, 6)
Y_test= convert_to_one_hot(Y_test_orig,6)print("number of training examples = "+ str(X_train.shape[1]))print("number of test examples = "+ str(X_test.shape[1]))print("X_train shape: "+ str(X_train.shape))print("Y_train shape: "+ str(Y_train.shape))print("X_test shape: "+ str(X_test.shape))print("Y_test shape: "+ str(Y_test.shape))
下面就根據 NG 給定的找個資料集利用Tensorflow搭建神經網路模型。我們選擇構建一個包含 2 個隱層的神經網路,網路結構大致如下:
LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SOFTMAX
正如我們之前利用numpy手動搭建一樣,搭建一個神經網路的主要步驟如下:
-定義網路結構
-初始化模型引數
-執行前向計算/計算當前損失/執行反向傳播/權值更新
建立 placeholder
根據Tensorflow的語法,我們首先建立輸入X和輸出Y的佔位符變數,這裡需要注意shape引數的設定。
defcreate_placeholders(n_x, n_y):
X = tf.placeholder(tf.float32, shape=(n_x,None), name='X')
Y = tf.placeholder(tf.float32, shape=(n_y,None), name='Y')
returnX, Y
初始化模型引數
其次就是初始化神經網路的模型引數,三層網路包括六個引數,這裡我們採用Xavier初始化方法:
def initialize_parameters(): tf.set_random_seed(1)
W1 = tf.get_variable("W1", [25, 12288], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
b1 = tf.get_variable("b1", [25, 1], initializer = tf.zeros_initializer())
W2 = tf.get_variable("W2", [12, 25], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
b2 = tf.get_variable("b2", [12, 1], initializer = tf.zeros_initializer())
W3 = tf.get_variable("W3", [6, 12], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
b3 = tf.get_variable("b3", [6,1], initializer = tf.zeros_initializer()) parameters = {"W1": W1,
"b1": b1,
"W2": W2,
"b2": b2,
"W3": W3,
"b3": b3}
return parameters
執行前向傳播
defforward_propagation(X, parameters):"""
Implements the forward propagation for the model: LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SOFTMAX
"""
W1 = parameters['W1']
b1 = parameters['b1']
W2 = parameters['W2']
b2 = parameters['b2']
W3 = parameters['W3']
b3 = parameters['b3']
Z1 = tf.add(tf.matmul(W1, X), b1)
A1 = tf.nn.relu(Z1)
Z2 = tf.add(tf.matmul(W2, A1), b2)
A2 = tf.nn.relu(Z2)
Z3 = tf.add(tf.matmul(W3, A2), b3)
returnZ3
計算損失函式
在Tensorflow中損失函式的計算要比手動搭建時方便很多,一行程式碼即可搞定:
def compute_cost(Z3, Y):
logits = tf.transpose(Z3)
labels = tf.transpose(Y)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = logits, labels = labels))
returncost
程式碼整合:執行反向傳播和權值更新
跟計算損失函式類似,Tensorflow中執行反向傳播的梯度最佳化非常簡便,兩行程式碼即可搞定,定義完整的神經網路模型如下:
def model(X_train, Y_train, X_test, Y_test, learning_rate =0.0001,
num_epochs =
1500, minibatch_size = 32, print_cost =True):
ops.reset_default_graph()
tf.set_random_seed(
1)
seed=
3
(n_x,m) = X_train.shape
n_y = Y_train.shape[
0]
costs = []
#CreatePlaceholdersofshape (n_x, n_y)
X, Y = create_placeholders(n_x, n_y)
# Initializeparameters
parameters= initialize_parameters()
# Forward propagation:Buildthe forward propagationinthe tensorflow graph
Z3 = forward_propagation(X,parameters)
#Costfunction:Addcostfunctiontotensorflow graph
cost= compute_cost(Z3, Y)
# Backpropagation:Definethe tensorflow optimizer.Usean AdamOptimizer.
optimizer = tf.train.GradientDescentOptimizer(learning_rate = learning_rate).minimize(cost)
# Initialize all thevariables
init = tf.global_variables_initializer()
#Startthesessiontocomputethe tensorflow graphwithtf.Session()as sess: # Run the initialization
sess.run(init)
#Dothe trainingloopfor epoch inrange(num_epochs):
epoch_cost =
0.
num_minibatches =int(m/ minibatch_size)
seed=seed+
1
minibatches = random_mini_batches(X_train, Y_train, minibatch_size,seed)
for minibatch in minibatches: # Select a minibatch
(minibatch_X, minibatch_Y) = minibatch
_ , minibatch_cost = sess.run([optimizer,cost], feed_dict={X: minibatch_X, Y: minibatch_Y})
epoch_cost += minibatch_cost / num_minibatches
# Print thecostevery epochif print_cost == True and epoch % 100 == 0:
print ("Cost after epoch %i: %f" % (epoch, epoch_cost))
if print_cost == True and epoch % 5 == 0:
costs.append(epoch_cost)
# plot thecost
plt.plot(np.squeeze(costs))
plt.ylabel(
'cost')
plt.xlabel(
'iterations (per tens)')
plt.title(
"Learning rate ="+str(learning_rate))
plt.show()
# letssavetheparametersinavariable
parameters= sess.run(parameters)
print ("Parameters have been trained!") # Calculate the correct predictions
correct_prediction = tf.equal(tf.argmax(Z3), tf.argmax(Y))
# Calculate accuracyonthetestset
accuracy = tf.reduce_mean(tf.cast(correct_prediction,
"float"))
print ("Train Accuracy:", accuracy.eval({X: X_train, Y: Y_train}))
print ("Test Accuracy:", accuracy.eval({X: X_test, Y: Y_test}))
returnparameters
執行模型:
parameters = model(X_train, Y_train, X_test, Y_test)
根據模型的訓練誤差和測試誤差可以看到:模型整體效果雖然沒有達到最佳,但基本也能達到預測效果。
總結
Tensorflow語法中兩個基本的物件類是 Tensor 和 Operator.
Tensorflow執行計算的基本步驟為
建立計算圖(張量、變數和佔位符變數等)
建立會話
初始化會話
在計算圖中執行會話
可以看到的是,在 Tensorflow 中編寫神經網路要比我們手動搭建要方便的多,這也正是深度學習框架存在的意義之一。功能強大的深度學習框架能夠幫助我們快速的搭建起復雜的神經網路模型,在經歷了手動搭建神經網路的思維訓練過程之後,這對於我們來說就不再困難了。
作者:天善智慧
連結:
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/3209/viewspace-2815677/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 深度學習筆記------卷積神經網路深度學習筆記卷積神經網路
- 深度學習卷積神經網路筆記深度學習卷積神經網路筆記
- 【機器學習】搭建神經網路筆記機器學習神經網路筆記
- 深度學習之step by step搭建神經網路深度學習神經網路
- 吳恩達《神經網路與深度學習》課程筆記(4)– 淺層神經網路吳恩達神經網路深度學習筆記
- 吳恩達《神經網路與深度學習》課程筆記(5)– 深層神經網路吳恩達神經網路深度學習筆記
- 吳恩達《神經網路與深度學習》課程筆記(1)– 深度學習概述吳恩達神經網路深度學習筆記
- 深度學習入門筆記(十八):卷積神經網路(一)深度學習筆記卷積神經網路
- TensorFlow筆記-07-神經網路優化-學習率,滑動平均筆記神經網路優化
- 卷積神經網路學習筆記——Siamese networks(孿生神經網路)卷積神經網路筆記
- 全連線神經網路學習筆記神經網路筆記
- 卷積神經網路學習筆記——SENet卷積神經網路筆記SENet
- 再聊神經網路與深度學習神經網路深度學習
- AI之(神經網路+深度學習)AI神經網路深度學習
- 【深度學習】神經網路入門深度學習神經網路
- 深度學習與圖神經網路深度學習神經網路
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- Ng深度學習筆記——卷積神經網路基礎深度學習筆記卷積神經網路
- TensorFlow筆記-05-反向傳播,搭建神經網路的八股筆記反向傳播神經網路
- 【菜鳥筆記|機器學習】神經網路筆記機器學習神經網路
- 機器學習筆記(3): 神經網路初步機器學習筆記神經網路
- 幾種型別神經網路學習筆記型別神經網路筆記
- 【深度學習】1.4深層神經網路深度學習神經網路
- 深度學習三:卷積神經網路深度學習卷積神經網路
- 深度學習教程 | 深層神經網路深度學習神經網路
- Tensorflow學習筆記No.8筆記
- nndl-復旦-神經網路與深度學習筆記第二章習題神經網路深度學習筆記
- 8-深度學習之神經網路核心原理與演算法-卷積神經網路深度學習神經網路演算法卷積
- 深度學習與圖神經網路學習分享:CNN 經典網路之-ResNet深度學習神經網路CNN
- 吳恩達機器學習筆記 —— 9 神經網路學習吳恩達機器學習筆記神經網路
- 吳恩達《神經網路與深度學習》課程筆記(2)– 神經網路基礎之邏輯迴歸吳恩達神經網路深度學習筆記邏輯迴歸
- 吳恩達《神經網路與深度學習》課程筆記(3)– 神經網路基礎之Python與向量化吳恩達神經網路深度學習筆記Python
- 深度學習之RNN(迴圈神經網路)深度學習RNN神經網路
- 深度學習迴圈神經網路詳解深度學習神經網路
- 深度學習——LeNet卷積神經網路初探深度學習卷積神經網路
- 深度學習之上,圖神經網路(GNN )崛起深度學習神經網路GNN
- 深度學習小課堂:如何利用遞迴神經網路生成文字?深度學習遞迴神經網路
- TensorFlow搭建神經網路最佳實踐樣例神經網路