小熊飛槳練習冊-02眼疾識別
簡介
小熊飛槳練習冊-02眼疾識別,本專案開發和測試均在 Ubuntu 20.04 系統下進行。
專案最新程式碼檢視主頁:小熊飛槳練習冊
百度飛槳 AI Studio 主頁:小熊飛槳練習冊-02眼疾識別
Ubuntu 系統安裝 CUDA 參考:Ubuntu 百度飛槳和 CUDA 的安裝
檔案說明
檔案 | 說明 |
---|---|
train.py | 訓練程式 |
test.py | 測試程式 |
test-gtk.py | 測試程式 GTK 介面 |
report.py | 報表程式 |
get-data.sh | 獲取資料到 dataset 目錄下 |
check-data.sh | 檢查 dataset 目錄下的資料是否存在 |
mod/alexnet.py | AlexNet 網路模型 |
mod/dataset.py | ImageClass 影像分類資料集解析 |
mod/utils.py | 雜項 |
mod/config.py | 配置 |
mod/report.py | 結果報表 |
dataset | 資料集目錄 |
params | 模型引數儲存目錄 |
log | VisualDL 日誌儲存目錄 |
資料集
資料集來源於百度飛槳公共資料集:眼疾識別資料集iChallenge-整理版
獲取資料
如果執行在本地計算機,下載完資料,檔案放到 dataset 目錄下,在專案目錄下執行下面指令碼。
如果執行在百度 AI Studio 環境,檢視 data 目錄是否有資料,在專案目錄下執行下面指令碼。
bash get-data.sh
分類標籤
- 非眼疾 0
- 眼疾 1
檢查資料
獲取資料完畢後,在專案目錄下執行下面指令碼,檢查 dataset 目錄下的資料是否存在。
bash check-data.sh
網路模型
網路模型使用 AlexNet 網路模型 來源百度飛槳教程和網路。
AlexNet 網路模型 參考: 百度飛槳教程
import paddle
import paddle.nn as nn
import paddle.nn.functional as F
# AlexNet 網路模型
class AlexNet(nn.Layer):
"""
AlexNet 網路模型
輸入影像大小為 224 x 224
池化層 kernel_size = 2, 第一層卷積層填充 paddling = 2
"""
def __init__(self, num_classes=10, pool_kernel_size=2, conv1_paddling=2, fc1_in_features=9216):
"""
AlexNet 網路模型
Args:
num_classes (int, optional): 分類數量, 預設 10
pool_kernel_size (int, optional): 池化層核大小, 預設 2
conv1_paddling (int, optional): 第一層卷積層填充, 預設 2,
輸入影像大小為 224 x 224 填充 2
fc1_in_features (int, optional): 第一層全連線層輸入特徵數量, 預設 9216,
根據 max_pool3 輸出結果, 計算得出 256*6*6 = 9216
Raises:
Exception: 分類數量 num_classes 必須大於等於 2
"""
super(AlexNet, self).__init__()
if num_classes < 2:
raise Exception("分類數量 num_classes 必須大於等於 2: {}".format(num_classes))
self.num_classes = num_classes
self.pool_kernel_size = pool_kernel_size
self.fc1_in_features = fc1_in_features
self.conv1 = nn.Conv2D(
in_channels=3, out_channels=96, kernel_size=11, stride=4, padding=conv1_paddling)
self.max_pool1 = nn.MaxPool2D(kernel_size=pool_kernel_size, stride=2)
self.conv2 = nn.Conv2D(
in_channels=96, out_channels=256, kernel_size=5, stride=1, padding=2)
self.max_pool2 = nn.MaxPool2D(kernel_size=pool_kernel_size, stride=2)
self.conv3 = nn.Conv2D(
in_channels=256, out_channels=384, kernel_size=3, stride=1, padding=1)
self.conv4 = nn.Conv2D(
in_channels=384, out_channels=384, kernel_size=3, stride=1, padding=1)
self.conv5 = nn.Conv2D(
in_channels=384, out_channels=256, kernel_size=3, stride=1, padding=1)
self.max_pool3 = nn.MaxPool2D(kernel_size=pool_kernel_size, stride=2)
# in_features 9216 = max_pool3 輸出 256*6*6
self.fc1 = nn.Linear(in_features=fc1_in_features, out_features=4096)
self.drop_ratio1 = 0.5
self.drop1 = nn.Dropout(self.drop_ratio1)
self.fc2 = nn.Linear(in_features=4096, out_features=4096)
self.drop_ratio2 = 0.5
self.drop2 = nn.Dropout(self.drop_ratio2)
self.fc3 = nn.Linear(in_features=4096, out_features=num_classes)
def forward(self, x):
x = self.conv1(x)
x = F.relu(x)
x = self.max_pool1(x)
x = self.conv2(x)
x = F.relu(x)
x = self.max_pool2(x)
x = self.conv3(x)
x = F.relu(x)
x = self.conv4(x)
x = F.relu(x)
x = self.conv5(x)
x = F.relu(x)
x = self.max_pool3(x)
# flatten 根據給定的 start_axis 和 stop_axis 將連續的維度展平
x = paddle.flatten(x, start_axis=1, stop_axis=-1)
x = self.fc1(x)
x = F.relu(x)
# 在全連線之後使用 dropout 抑制過擬合
x = self.drop1(x)
x = self.fc2(x)
x = F.relu(x)
# 在全連線之後使用 dropout 抑制過擬合
x = self.drop2(x)
x = self.fc3(x)
return x
資料集解析
資料集解析,主要是解析 影像路徑和標籤的文字 ,然後根據影像路徑讀取影像和標籤。
import paddle
import os
import random
import numpy as np
from PIL import Image
import paddle.vision as ppvs
class ImageClass(paddle.io.Dataset):
"""
ImageClass 影像分類資料集解析, 繼承 paddle.io.Dataset 類
"""
def __init__(self,
dataset_path: str,
images_labels_txt_path: str,
transform=None,
shuffle=True
):
"""
建構函式,定義資料集
Args:
dataset_path (str): 資料集路徑
images_labels_txt_path (str): 影像和標籤的文字路徑
transform (Compose, optional): 轉換資料的操作組合, 預設 None
shuffle (bool, True): 隨機打亂資料, 預設 True
"""
super(ImageClass, self).__init__()
self.dataset_path = dataset_path
self.images_labels_txt_path = images_labels_txt_path
self._check_path(dataset_path, "資料集路徑錯誤")
self._check_path(images_labels_txt_path, "影像和標籤的文字路徑錯誤")
self.transform = transform
self.image_paths, self.labels = self.parse_dataset(
dataset_path, images_labels_txt_path, shuffle)
def __getitem__(self, idx):
"""
獲取單個資料和標籤
Args:
idx (Any): 索引
Returns:
image (float32): 影像
label (int): 標籤
"""
image_path, label = self.image_paths[idx], self.labels[idx]
return self.get_item(image_path, label, self.transform)
@staticmethod
def get_item(image_path: str, label: int, transform=None):
"""
獲取單個資料和標籤
Args:
image_path (str): 影像路徑
label (int): 標籤
transform (Compose, optional): 轉換資料的操作組合, 預設 None
Returns:
image (float32): 影像
label (int): 標籤
"""
ppvs.set_image_backend("pil")
image = Image.open(image_path)
if transform is not None:
image = transform(image)
# 轉換影像 HWC 轉為 CHW
image = np.transpose(image, (2, 0, 1))
return image.astype("float32"), label
def __len__(self):
"""
資料數量
Returns:
int: 資料數量
"""
return len(self.labels)
def _check_path(self, path: str, msg: str):
"""
檢查路徑是否存在
Args:
path (str): 路徑
msg (str, optional): 異常訊息
Raises:
Exception: 路徑錯誤, 異常
"""
if not os.path.exists(path):
raise Exception("{}: {}".format(msg, path))
@staticmethod
def parse_dataset(dataset_path: str, images_labels_txt_path: str, shuffle: bool):
"""
資料集解析
Args:
dataset_path (str): 資料集路徑
images_labels_txt_path (str): 影像和標籤的文字路徑
Returns:
image_paths: 影像路徑集
labels: 分類標籤集
"""
lines = []
image_paths = []
labels = []
with open(images_labels_txt_path, "r") as f:
lines = f.readlines()
# 隨機打亂資料
if (shuffle):
random.shuffle(lines)
for i in lines:
data = i.split(" ")
image_paths.append(os.path.join(dataset_path, data[0]))
labels.append(int(data[1]))
return image_paths, labels
配置模組
可以檢視修改 mod/config.py 檔案,有詳細的說明
開始訓練
執行 train.py 檔案,檢視命令列引數加 -h
python3 train.py
--cpu 是否使用 cpu 計算,預設使用 CUDA
--learning-rate 學習率,預設 0.001
--epochs 訓練幾輪,預設 2 輪
--batch-size 一批次數量,預設 2
--num-workers 執行緒數量,預設 2
--no-save 是否儲存模型引數,預設儲存, 選擇後不儲存模型引數
--load-dir 讀取模型引數,讀取 params 目錄下的子資料夾, 預設不讀取
--log 是否輸出 VisualDL 日誌,預設不輸出
--summary 輸出網路模型資訊,預設不輸出,選擇後只輸出資訊,不會開啟訓練
測試模型
執行 test.py 檔案,檢視命令列引數加 -h
python3 test.py
--cpu 是否使用 cpu 計算,預設使用 CUDA
--batch-size 一批次數量,預設 2
--num-workers 執行緒數量,預設 2
--load-dir 讀取模型引數,讀取 params 目錄下的子資料夾, 預設 best 目錄
測試模型 GTK 介面
執行 test-gtk.py 檔案,此程式依賴 GTK 庫,只能執行在本地計算機。
python3 test-gtk.py
GTK 庫安裝
python3 -m pip install pygobject
使用手冊
- 1、點選 選擇模型 按鈕。
- 2、彈出的檔案對話方塊選擇模型,模型在 params 目錄下的子目錄的 model.pdparams 檔案。
- 3、點選 隨機測試 按鈕,就可以看到測試的影像,預測結果和實際結果。
檢視結果報表
執行 report.py 檔案,可以顯示 params 目錄下所有子目錄的 report.json。
加引數 --best 根據 loss 最小的模型引數儲存在 best 子目錄下。
python3 report.py
report.json 說明
鍵名 | 說明 |
---|---|
id | 根據時間生成的字串 ID |
loss | 本次訓練的 loss 值 |
acc | 本次訓練的 acc 值 |
epochs | 本次訓練的 epochs 值 |
batch_size | 本次訓練的 batch_size 值 |
learning_rate | 本次訓練的 learning_rate 值 |
VisualDL 視覺化分析工具
- 安裝和使用說明參考:VisualDL
- 訓練的時候加上引數 --log
- 如果是 AI Studio 環境訓練的把 log 目錄下載下來,解壓縮後放到本地專案目錄下 log 目錄
- 在專案目錄下執行下面命令
- 然後根據提示的網址,開啟瀏覽器訪問提示的網址即可
visualdl --logdir ./log