keras 手動搭建alexnet並訓練mnist資料集
# -*- coding: utf-8 -*-
# @Time : 2020/11/26 10:11 PM
# @Author : yuhao
# @Email : hhhhh
# @File : alexnet.py
import numpy as np
from keras.models import Sequential
from keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Dropout
from keras.callbacks import ModelCheckpoint
from keras.utils import to_categorical
##-------------------1.讀取本地mnist資料集-------------------
mnist = np.load('./mnist.npz')
x_train, y_train = mnist['x_train'], mnist['y_train']
x_test, y_test = mnist['x_test'], mnist['y_test']
mnist.close()
#新增維度
x_train = x_train.reshape(x_train.shape[0], 28, 28, 1)
x_test = x_test.reshape(x_test.shape[0], 28, 28, 1)
#將標籤轉化為one-hot編碼
y_train = to_categorical(y_train, num_classes=10)
y_test = to_categorical(y_test, num_classes=10)
##-------------------2.搭建keras序貫型網路模型-------------------
model = Sequential()
#conv1
model.add(Conv2D(96, (11, 11), strides=(1, 1), padding='same', activation='relu', input_shape=(28, 28, 1)))
model.add(MaxPooling2D(pool_size=(3, 3), strides=(2, 2)))
#conv2
model.add(Conv2D(256, (5, 5), strides=(1, 1), padding='same', activation='relu'))
model.add(MaxPooling2D(pool_size=(3, 3), strides=(2, 2)))
#conv3
model.add(Conv2D(384, (3, 3), strides=(1, 1), padding='same', activation='relu'))
#conv4
model.add(Conv2D(384, (3, 3), strides=(1, 1), padding='same', activation='relu'))
#conv5
model.add(Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu'))
model.add(MaxPooling2D(pool_size=(3, 3), strides=(2, 2)))
#fc5
model.add(Flatten())
model.add(Dense(4096, activation='relu'))
model.add(Dropout(0.8))
#fc6
model.add(Dense(1000, activation='relu'))
model.add(Dropout(0.8))
#fc7
model.add(Dense(10, activation='softmax'))
##-------------------3.訓練模型-------------------
#設定loss函式、優化器...
model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
model.summary()
#訓練
checkpoint = ModelCheckpoint('./model_{epoch:02d}_{val_acc:.4f}.h5', save_best_only=False, period=5)
model.fit(x_train, y_train, batch_size=64, epochs=5, validation_data=(x_test,y_test))
model.save('./model.h5')
相關文章
- Caffe 訓練mnist資料
- 【tf.keras】tf.keras載入AlexNet預訓練模型Keras模型
- keras-retinanet 用自己的資料集訓練KerasNaN
- 資料集訓練
- 資料集訓練+1
- matlab練習程式(神經網路識別mnist手寫資料集)Matlab神經網路
- fashion資料集訓練
- 搭建 MobileNet-SSD 開發環境並使用 VOC 資料集訓練 TensorFlow 模型開發環境模型
- MNIST資料集介紹
- LLM並行訓練3-資料並行並行
- Keras速查_CPU和GPU的mnist預測訓練_模型匯出_模型匯入再預測_匯出onnx並預測KerasGPU模型
- 如何入門Pytorch之四:搭建神經網路訓練MNISTPyTorch神經網路
- 新高一暑假第一期集訓恢復性訓練【資料結構-雜題小練】(並查集)(補)資料結構並查集
- TensorFlow 入門(MNIST資料集)
- 分散式訓練|horovod+keras(1)分散式Keras
- 視覺化 Keras 訓練過程視覺化Keras
- 乾貨 | YOLOV5 訓練自動駕駛資料集,並轉成tensorrt【左側有碼】YOLO自動駕駛
- python 將Mnist資料集轉為jpg,並按比例/標籤拆分為多個子資料集Python
- DeepLab 使用 Cityscapes 資料集訓練模型模型
- 訓練機器學習的資料集大小很重要 - svpino機器學習
- 如何改善你的訓練資料集?(附案例)
- Mxnet R FCN 訓練自己的資料集
- yolov5 自建資料集訓練測試YOLO
- 亮資料:高效率資料採集,加速大模型訓練!大模型
- 用SSD-Pytorch訓練自己的資料集PyTorch
- Mxnet-R-FCN-訓練自己的資料集
- TensorFlow2.0教程-使用keras訓練模型Keras模型
- Alink漫談(七) : 如何劃分訓練資料集和測試資料集
- 機器學習的訓練集機器學習
- Caffe-SSD-Ubuntu16-04-訓練自己的資料集Ubuntu
- Yolov3程式碼分析與訓練自己資料集YOLO
- Caffe SSD Ubuntu16 04 訓練自己的資料集Ubuntu
- 谷歌colab訓練自己的資料集YOLOv3谷歌YOLO
- 文件智慧:通用文件預訓練模型與資料集,推動NLP落地升級模型
- 深度學習(一)之MNIST資料集分類深度學習
- 並查集練習並查集
- TensorFlow系列專題(六):實戰專案Mnist手寫資料集識別
- Scaled-YOLOv4 快速開始,訓練自定義資料集YOLO