TF2.keras 實現基於深度可分離卷積網路的影象分類模型

Galois發表於2020-03-11

在深度可分離卷積網路裡,通常在輸入層使用普通的卷積,在輸入層之外的地方使用深度可分離卷積。由於 Keras 已經實現了深度可分離卷積,所以直接呼叫 API:keras.layers.SeparableConv2D 即可。
資料集以及一些其他步驟可以在 TF2.keras 實現基於卷積神經網路的影象分類模型 檢視。
模型程式碼:

model = keras.models.Sequential()
# 卷積層
model.add(keras.layers.Conv2D(filters=32, kernel_size=3,
                             padding='same',
                             activation='selu',
                             input_shape=(28, 28, 1)))
# 深度可分離卷積
model.add(keras.layers.SeparableConv2D(filters=32, kernel_size=3,
                                       padding='same',
                                       activation='selu'))
# 池化層
model.add(keras.layers.MaxPool2D(pool_size=2))
# 深度可分離卷積
model.add(keras.layers.SeparableConv2D(filters=64, kernel_size=3,
                                       padding='same',
                                       activation='selu'))
# 深度可分離卷積
model.add(keras.layers.SeparableConv2D(filters=64, kernel_size=3,
                                       padding='same',
                                       activation='selu'))
# 池化層
model.add(keras.layers.MaxPool2D(pool_size=2))
# 深度可分離卷積
model.add(keras.layers.SeparableConv2D(filters=128, kernel_size=3,
                                       padding='same',
                                       activation='selu'))
# 深度可分離卷積
model.add(keras.layers.SeparableConv2D(filters=128, kernel_size=3,
                                       padding='same',
                                       activation='selu'))
# 池化層
model.add(keras.layers.MaxPool2D(pool_size=2))
# 展平
model.add(keras.layers.Flatten())
# 全連線層
model.add(keras.layers.Dense(128, activation='selu'))

model.add(keras.layers.Dense(10, activation="softmax"))

model.compile(loss="sparse_categorical_crossentropy",
             optimizer = "sgd",
             metrics = ["accuracy"])

model.summary()

z5Kr6hqRHx.png!large

比起普通卷積網路,可以發現「深度可分離卷積網路」在引數量上的降低非常巨大。

訓練網路模型:

logdir = './separable-selu-callbacks'
if not os.path.exists(logdir):
    os.mkdir(logdir)
output_model_file = os.path.join(logdir,
                                 "fashion_mnist_model.h5")

callbacks = [
    keras.callbacks.TensorBoard(logdir),
    keras.callbacks.ModelCheckpoint(output_model_file,
                                   save_best_only = True),
    keras.callbacks.EarlyStopping(patience=5, min_delta=1e-3)
]
history = model.fit(x_train_scaled, y_train, epochs=10,
                    validation_data=(x_valid_scaled, y_valid),
                    callbacks = callbacks)

深度可分離卷積網路以精度損失為代價換取計算量的減少,引數量的減少。使得深度可分離卷積網路可以在手機上執行。
學習曲線:

def plot_learning_curves(history):
    pd.DataFrame(history.history).plot(figsize=(8, 5))
    plt.grid(True)
    plt.gca().set_ylim(0, 2.5)
plot_learning_curves(history)

iFfFW3tRbf.png!large

測試集驗證:

model.evaluate(x_test_scaled, y_test)

輸出:

10000/10000 [==============================] - 3s 307us/sample - loss: 0.4113 - accuracy: 0.8506
[0.4112651606082916, 0.8506]

本作品採用《CC 協議》,轉載必須註明作者和本文連結

不要試圖用百米衝刺的方法完成馬拉松比賽。

相關文章