由於工作原因,需要使用到深度學習pytorch框架,所以,跟隨影片學習了深度學習框架的使用方法,影片連結如下:
PyTorch深度學習快速入門教程(絕對通俗易懂!)【小土堆】_嗶哩嗶哩_bilibili
1、安裝pytorch
在windows下使用pytorch,首先找到anaconda官網,安裝64位windows版本,然後使用清華的源替換掉anaconda預設源,詳細教程如下(2條訊息) 【2022】保姆級Anaconda安裝與換國內源教程_anaconda換源_NoBug2022的部落格-CSDN部落格
開啟anaconda prompt
conda create -n your_env_name python=x.x
命令建立環境,可以使用
conda env list
檢視當前已有的環境,來判斷環境是否建立成功
開啟Start Locally | PyTorch,選擇自己需要的pytorch版本,將Run this Command命令複製到自己控制檯,然後就可以等待pytorch自己安裝成功啦
安裝完成後,在控制檯輸入
python
import torch
print(torch.__version__)
輸出版本後,就表明安裝成功啦,當然,如果是GPU版本,還可以輸入
print (torch.cuda.is_available())
顯示TRUE就表示顯示卡加速也開啟了,就可以開啟我們的深度學習之路了。
ps:python中的兩個方便的函式
dir() 顯示包中的方法
help() 顯示方法的具體幫助資訊
2、資料載入
如圖所示,資料在變成Dataset的過程就是將雜亂的資料刨除和整理資料的過程,並且統計了資料的大小,而Dataset到Dataloader則是將整理過的資料按照設定大小進行打包的過程,最終Dataloader為深度學習直接提供需要的資料。
使用的示例程式碼如下:
from torch.utils.data import Dataset from PIL import Image import os class myData(Dataset): def __init__(self, strRootDir, strLabelDir): self.mstrRootDir = strRootDir self.mstrLabelDir = strLabelDir self.mstrPath = os.path.join(strRootDir, strLabelDir) self.mstrImagePath = os.listdir(self.mstrPath) def __getitem__(self, item): strImageName = self.mstrImagePath[item] strImageItemPath = os.path.join(self.mstrPath, strImageName) zImage = Image.open(strImageItemPath) strLabel = self.mstrLabelDir return zImage, strLabel def __len__(self): return len(self.mstrImagePath) strRootDir = "dateset/train" strLabelAnts = "ants" strLabelBees = "bees" zAntsData = myData(strRootDir, strLabelAnts) zBeesData = myData(strRootDir, strLabelBees) zTrainData = zAntsData + zBeesData print(len(zAntsData), len(zBeesData), len(zTrainData))
3、深度學習訓練工具
由於深學習過程太過抽象,無法直觀的檢視模型學習的程度,所以使用Tensorbard工具來檢視,在控制檯輸入
pip3 -install tensorbard
下載該工具,使用其中的SummaryWriter類的add_scalar和add_image方法就可以將資料進行圖表展示以及圖片的展示
示例程式如下:
from torch.utils.tensorboard import SummaryWriter import numpy from PIL import Image wirter = SummaryWriter("logs") PILImagePath = "dateset/train/ants/0013035.jpg" PILImage = Image.open(PILImagePath) ImageArray = numpy.array(PILImage) wirter.add_image("ants", ImageArray, 1, dataformats='HWC') for i in range(100): wirter.add_scalar("y = 2x", 2 * i, i) wirter.close()
在控制檯輸入
tensorboard --logdir=你的日誌檔案位置
就可以檢視到如下的圖表
4、圖形變換
圖形變換主要使用torchvision包中的Transforms包內的方法,有Resize、ToTensor等方法,可以使用Compose方法將所以操作合併為一個命令,要求方法間輸入與下一個方法的輸出一一對應。
5、資料集
在torchvision包中的dataset包提供了一些內建的資料集可以使用,將download設定為True將在程式執行時自動下載。
6、神經網路的結構
1、模型本體,需要建立一個nn.Module的子類作為深度學習模型的本體,需要自己根據模型結構實現自己的__init__方法和forward方法
class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.model = nn.Sequential( # 卷積層1 nn.Conv2d(3, 32, 5, 1, 2, ), # 池化層1 nn.MaxPool2d(2), # 卷積層2 nn.Conv2d(32, 32, 5, 1, 2), # 池化層2 nn.MaxPool2d(2), # 卷積層3 nn.Conv2d(32, 64, 5, 1, 2), # 池化層3 nn.MaxPool2d(2), # 展平層 nn.Flatten(), # 全連線層1 nn.Linear(64 * 4 * 4, 64), # 全連線層2 nn.Linear(64, 10) ) def forward(self, x): """ 神經元向前傳播函式 :param x: 輸入的引數 :return: 輸出的引數 """ x = self.model(x) return x
一般將這個類寫入單獨的py檔案方便之後操作,並且一般在檔案末尾提供模型的自檢方法
# 神經網路模型測試 if __name__ == '__main__': funModel = MyModel() myInPut = torch.ones(64, 3, 32, 32) myOutPut = funModel(myInPut) print(myOutPut.shape)
2、卷積層
卷積層負責卷積操作,一般呼叫nn.conv2d方法
3、池化層
池化層的作用是在儘量保證特徵的同時減少資料量,一般卷積層後就會跟隨一個池化層,呼叫nn.MaxPool2d方法
4、非線性啟用層
非線性啟用主要是為了引入非線性特徵,一般使用的有nn.ReLU方法和Sigmoid方法
5、正則化層
正則化層主要目的是加快訓練速度,一般使用nn.BatchNorm2d方法
6、線性層
線性層也叫全連線層,主要是對資料進行線性組合,一般使用Linear方法,線上性層之前可以呼叫nn.Flatten方法對資料進行展平
7、可以使用nn.Sequential方法將網路各層方法合併為一個命令,需要保證輸出與下一個輸入的資料對應
8、損失函式和反向傳播
損失函式可以產生一個loss數,用來判斷模型特徵與實際資料之間的差異,並且對神經網路的反向傳播提供依據,一般使用nn.L1Loss方法或nn.MSELoss方法,計算出的loss值越小,越接近真實。
9、最佳化器
最佳化器內建了許多成熟的神經網路最佳化演算法,一般使用SGD方法,需要提供一個學習速率,最佳化前需要將之前最佳化器的偏移進行清空,使用zero_grad方法,然後將網路進行反向傳播填充偏移,隨後呼叫step方法進行神經網路最佳化
10、學習速率調整函式
為了得到更好的模型,往往隨著訓練次數增大,需要調整學習的速率,lr_scheduler包提供了調整學習速率的函式方法,使用step方法就可以進行速率調整,注意,這個step需要在最佳化器至少在之前執行了一次step
11、GPU訓練模型
可以使用GPU進行訓練加速的地方有資料,損失函式和模型。具體方法有兩種:
11.1、使用cuda方法將需要加速的地方放入gpu
11.2、使用to(device)方法將需要加速的地方放入gpu,如果需要寫cpu和gpu平臺通用的函式,可以把device裝置這樣寫:
zDevice = torch.device("cuda" if torch.cuda.is_available() else "cpu")
7、訓練模型常用套路
訓練模型基本套路為:
1、設定裝置
2、載入資料集
3、新增日誌記錄者
4、計算資料集長度
5、利用dataloader載入資料集
6、建立網路模型
7、建立損失函式
8、設定最佳化器
9、設定學習衰減函式
10、設定訓練網路的一些引數
11、迴圈開始訓練和測試
12、儲存每一次訓練的模型
13、記錄者關閉
#!/usr/bin/env pytorch # -*- coding: UTF-8 -*- """ @Project :llearn_pytorch @File :model.py @IDE :PyCharm @Author :張世航 @Date :2023/2/24 11:30 @Description :一個深度學習演示樣例 """ import torchvision.datasets from torch.optim import lr_scheduler, SGD from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriter from model import * import time # 設定裝置 zDevice = torch.device("cuda" if torch.cuda.is_available() else "cpu") # 載入資料集 zTrainData = torchvision.datasets.CIFAR10("TrainData", train=True, transform=torchvision.transforms.ToTensor(), download=True) zTestData = torchvision.datasets.CIFAR10("TestData", train=False, transform=torchvision.transforms.ToTensor(), download=True) # 新增記錄者 writer = SummaryWriter("logs") # 計算資料集長度 iTrainDataLength = len(zTrainData) iTestDataLength = len(zTestData) print("the length of train data :{}".format(iTrainDataLength)) print("the length of test data:{}".format(iTestDataLength)) # 利用dataloader載入資料集 zTraindataLoader = DataLoader(zTrainData, batch_size=64) zTestDataLoader = DataLoader(zTestData, batch_size=64) # 建立網路模型 myModel = MyModel() myModel = myModel.to(zDevice) # 建立損失函式 myLossFunction = nn.CrossEntropyLoss() myLossFunction = myLossFunction.to(zDevice) # 最佳化器 dLearnRate = 1e-2 myOptimizer = SGD(myModel.parameters(), lr=dLearnRate) # 設定學習率衰減函式 MyScheduler = lr_scheduler.StepLR(myOptimizer, 50, gamma=0.5) # 設定訓練網路的一些引數 # 訓練的總次數 iTotalTrainStep = 0 # 測試的總次數 iTotalTestStep = 0 # 訓練的輪數 iEpoch = 300 # 記錄開始時間 fStartTime = time.time() for i in range(iEpoch): print("----第{}訓練開始!!!----".format(i)) myModel.train() for data in zTraindataLoader: images, targets = data images = images.to(zDevice) targets = targets.to(zDevice) outputs = myModel(images) loss = myLossFunction(outputs, targets) # 最佳化器最佳化模型 myOptimizer.zero_grad() loss.backward() myOptimizer.step() iTotalTrainStep = iTotalTrainStep + 1 if iTotalTrainStep % 100 == 0: fEndTime = time.time() print("第{}次模型訓練loss是{}".format(iTotalTrainStep, loss.item())) writer.add_scalar("train_loss", loss.item(), iTotalTrainStep) print("訓練耗時{}".format(fEndTime - fStartTime)) MyScheduler.step() print("----調整學習率為{}----".format(myOptimizer.state_dict()['param_groups'][0]['lr'])) writer.add_scalar("train_lr", myOptimizer.state_dict()['param_groups'][0]['lr'], i) myModel.eval() iTotalLoss = 0 iTotalAccuracy = 0 print("----第{}測試開始!!!----".format(i)) with torch.no_grad(): for data in zTestDataLoader: images, targets = data images = images.to(zDevice) targets = targets.to(zDevice) outputs = myModel(images) loss = myLossFunction(outputs, targets) iTotalLoss = iTotalLoss + loss.item() accuracy = (outputs.argmax(1) == targets).sum() iTotalAccuracy = accuracy + iTotalAccuracy print("第{}次模型測試loss是{}".format(i, iTotalLoss)) print("第{}次模型測試正確率是{}".format(i, iTotalAccuracy / iTestDataLength)) writer.add_scalar("test_loss", iTotalLoss, iTotalTestStep) writer.add_scalar("test_accuracy", iTotalAccuracy / iTestDataLength, iTotalTestStep) iTotalTestStep = iTotalTestStep + 1 # 儲存每一次訓練的模型 torch.save(myModel.state_dict(), "model/model_{}.path".format(i)) print("----模型已經儲存!!!----") writer.close()
8、模型儲存和讀取方法
有兩種方法儲存和讀取訓練好的模型
1、使用torch.save和torch.load儲存和讀取整個模型
2、使用torch.save(model.state_dict(),”xxx“)和model.load_state_dict(torch.load("xxx"))來儲存和載入模型中的資料(官方推薦)
9、使用模型的套路
1、載入模型
2、載入資料
3、獲取模型輸出結果
#!/usr/bin/env pytorch # -*- coding: UTF-8 -*- """ @Project :llearn_pytorch @File :testmodel.py @IDE :PyCharm @Author :張世航 @Date :2023/2/27 8:48 @Description :一個簡易的驗證訓練好的模型的程式 """ import os import torch from PIL import Image from torchvision import transforms from model import MyModel class myImage: def __init__(self, strRootDir): self.mstrRootDir = strRootDir self.mstrImagePath = os.listdir(self.mstrRootDir) def __getitem__(self, item): strImageName = self.mstrImagePath[item] strImageItemPath = os.path.join(self.mstrRootDir, strImageName) zImage = Image.open(strImageItemPath) strLabel = strImageName return zImage, strLabel def __len__(self): return len(self.mstrImagePath) funTransform = transforms.Compose([ transforms.Resize((32, 32)), transforms.ToTensor() ]) model = MyModel() model.load_state_dict(torch.load("model/model_37.path")) model.eval() strTestDir = "testimage" zData = myImage(strTestDir) image_type = ("airplane", "automobile", "bird", "cat", "deer", "dog", "frog", "horse", "ship", "truck", "nolen") with torch.no_grad(): for data in zData: image, label = data image = image.convert('RGB') image = funTransform(image) image = torch.reshape(image, (1, 3, 32, 32)) output = model(image) iResult = output.argmax(1) print("圖片型別|模型識別出型別:{}|{}".format(label, image_type[iResult]))
完整的程式碼地址 深度學習練習: 在學習深度學習時候的一些程式碼 編譯環境為python10+pytorch1.13.1+ancoda (gitee.com)
希望可以對大家學習有一定的幫助,互勉。