基於支援向量機的影像分類系統(MATLAB GUI介面版)

思緒無限發表於2022-04-18
功能演示動圖

摘要:本文詳細介紹基於支援向量機的影像分類系統,給出MATLAB的演算法介紹及介面設計過程。在介面中可點選選擇圖片或帶圖片的資料夾,系統自動對所涉及圖片進行識別分類,可選擇自己訓練的模型進行分類;另外系統設計了模型訓練功能,可在介面上選擇訓練資料集的資料夾和少量選擇設定,系統便可以自動進行模型訓練,適合不同的自定義資料集;演算法部分的特徵提取過程採用方向梯度直方圖(HOG)特徵,分類過程採用效能優異的核支援向量機(SVM)演算法。系統介面清新美觀,文中包含完整的程式碼檔案及資料集,開箱即用,適合新手朋友學習參考。

➷點選跳轉至文末所有涉及的完整程式碼檔案下載頁☇

完整資源下載連結https://mianbaoduo.com/o/bread/mbd-YpiTl5ht

程式碼介紹及演示視訊連結:https://www.bilibili.com/video/BV1V44y1M7mC/(正在更新中,歡迎關注博主B站視訊)


前言

        當前機器學習的演算法已經獲得應用,對於經典的支援向量機(SVM)演算法,其有著實現簡單、解釋性較強、效能優越的特點。如今支援向量機的研究力度並沒有減退,選擇何種演算法應該取決於具體的機器學習任務,對於多類別的影像分類任務,支援向量機或許是一個不錯的選擇。本文介紹的程式碼可以實現較高的分類測試準確率,所以想借此為大家提供一個學習的Demo共同交流。

功能演示動圖

        思路是先基於核支援向量機(SVM)演算法開發一個能夠根據圖片內容進行分類的指令碼,所用到的資料集可以是當前公開的分類圖片資料集,也可以是自行從網路上爬取的。除了演算法實現,為了便於展示和訓練,我們利用MATLAB的APP設計工具開發一個GUI系統介面,能夠滿足我們選擇模型、圖片、資料夾路徑的需求,初始介面如上圖所示。另外由於自行設定的資料集可能經常調整,所以相應的程式碼也需要調整,所以這裡把資料集的調整考慮進去,設計了可選擇訓練資料集、設定訓練引數的功能,其介面如下圖所示。

功能演示動圖

        本文給出了MATLAB實現的完整程式碼供大家參考,有基礎的讀者可按照文中的介紹復現出完整程式;對於想獲取全部資料集及程式檔案的朋友,可以點選提供的下載連結獲取可直接執行的程式碼,原創不易,還請多多支援了。如本文對您有所幫助,敬請點贊、收藏、關注!


1. 效果演示

(一)選擇模型+選擇圖片+歷史記錄

        首先還是用動圖先展示一下效果。進入軟體介面後,點選模型選擇按鈕即可彈出檔案選擇視窗,可選擇自行訓練的模型檔案;然後同樣點選圖片選擇按鈕,可以選擇一張需要測試的圖片,點選確認後,模型則自動識別圖片內容,並給出預測的結果;結果會被記錄在右側的表格中,可供再次檢視確認。本功能的介面展示如下圖所示:

功能演示動圖

(二)批量圖片識別+分類結果展示

        對於需要批量識別的情況,可選擇介面中的資料夾按鈕,選擇一個待測試的圖片資料夾,系統自動識別資料夾下的檔案並進行分類識別。在此過程中識別結果展示在右側,包括分類結果、準確率、圖片的歷史記錄。使用者可點選右側的結果記錄表格中的對應序號,回看圖片以及對應的識別結果,該部分演示如下圖所示:

功能演示動圖

(三)自定義模型訓練+引數設定+自動訓練

        如果想更換資料集並重新訓練模型,這時只需要點選“訓練”選項卡,可切換至訓練介面。如下圖所示,可選擇一個自定義的圖片資料夾,該資料夾下包含多個以類別命名的子資料夾,系統自動將資料夾的名字作為每一類的標籤,並將讀取的結果顯示在介面中。可以選擇訓練佔比和核函式的訓練設定,點選“開始訓練”即可自動進行訓練,訓練的過程資訊顯示在介面上,最終可以得到訓練測試集準確率,以及各類別的混淆矩陣結果,模型自動儲存在當前資料夾下供後續選擇。

功能演示動圖

2. Caltech 101資料集

        提到分類任務的資料集很容易想到ImageNet,它無疑是個巨大的訓練相簿,對於我們自行訓練和測試其實是非常費力的事情(除非你擁有高階裝置),所以我並不推薦在學習階段就使用。至於早前不少論文中廣泛使用的CIFAR10 / CIFAR100以及MNIST資料集,它們的尺寸過小,且本身任務比較簡單,目前已不在普遍使用(水論文除外)。所以這裡我們選擇的資料集是更貼近真實情況的Caltech 101資料集,也是當前非常流行的資料集。

功能演示動圖

         Caltech-101 Dataset是由 101 個類別的物件圖片組成的資料集,它主要用於目標識別和影像分類,官網地址為https://www.vision.caltech.edu/Image_Datasets/Caltech101/。該資料集不同類別有 40 至 800 張圖片,每張圖片的大小在 300 * 200 畫素,且資料集的釋出者均已標註對應的目標以供使用。該資料集由加州理工學院的李菲菲、馬克安德烈託和 Marc’Aurelio Ranzato 於 2003 年 9 月收集,相關論文有《Learning generative visual models from few training examples: an incremental Bayesian approach tested on 101 object categories》、《One-Shot learning of object categories》等。

功能演示動圖

         下載完成後的資料集檔案如上圖所示,解壓後即可看到其中包含101個子資料夾,每個資料夾對應一個類別的圖片,資料夾的名字表示對應的標籤。由於該資料集檔案數目較大,這裡選取其中的10類如下圖所示,將這幾個資料夾複製到新建的資料夾進行實驗,最終確定所用的資料集。

功能演示動圖

    資料集準備完畢,現在可以通過資料夾讀取圖片了。在MATLAB中可使用imageDatastore函式方便地批量讀取圖片集,它通過遞迴掃描資料夾目錄,將每個資料夾名稱自動作為影像的標籤,該部分程式碼如下:

clear
clc
rng default  % 保證結果執行一致

mpath = matlab.desktop.editor.getActiveFilename; % 程式所在目錄
[pathstr,~]=fileparts(mpath);
cd(pathstr); % 自動切換至程式所在目錄

imgDir = fullfile("../10_ObjectCategories/");
% imageDatastore遞迴掃描目錄,將每個資料夾名稱自動作為影像的標籤
dataSet = imageDatastore(imgDir, 'IncludeSubfolders', true, 'LabelSource', 'foldernames');

    至此讀取到的資料集被存放在dataSet變數中,可以簡單檢視訓練和測試集每類標籤的樣本個數,顯示程式碼如下:

trainSetDetail = countEachLabel(dataSet) % 訓練資料

    執行以上程式碼執行結果如下:

功能演示動圖

    這裡展示一下讀取到的圖片,程式碼如下所示:

figure
imshow(dataSet.Files{520});

    執行該程式碼可以看到如下的執行結果:

功能演示動圖

    這裡我們劃分訓練和測試資料集,使用留一法將80%的資料用於訓練,剩餘的資料用於模型測試,將訓練和測試檔案儲存在trainSet.Files及testSet.Files變數中,對應的標籤則存在Label中,該部分程式碼如下:

indices = crossvalind('Kfold',dataSet.Labels,5); % 進行交叉驗證劃分
t=1;

test=(indices == t);
train=~test;
% 訓練資料集
trainSet.Files = dataSet.Files(train);
trainSet.Labels = dataSet.Labels(train);
% 測試資料集
testSet.Files = dataSet.Files(test);
testSet.Labels = dataSet.Labels(test);

    至此完成資料集的讀取和劃分工作,接下來進行特徵提取步驟。


3. HOG特徵提取

    真正用於訓練分類器的資料並不是原始圖片資料,而是先經過特徵提取後得到的特徵向量,這裡使用的特徵型別是HOG,也就是方向梯度直方圖。所以這裡重要的一點是正確提取出HOG特徵,extractHOGFeatures是MATLAB自帶的HOG特徵提取函式,該函式不僅可以有效提取特徵,還可以返回特徵的視覺化結果以方便展示。該部分程式碼如下:

cellSize = [4 4];

img = readimage(dataSet, 23);
img = rgb2gray(img);   % 灰度化圖片
img = imbinarize(img);
img = imresize(img, [100 100]);
[hog_4x4, vis4x4] = extractHOGFeatures(img,'CellSize',[4 4]);

hogFeatureSize = length(hog_4x4);

% 提取HOG特徵
tStart = tic;

[trainFeatures, trainLabels] = extractHogFromImageSet(trainSet, hogFeatureSize, cellSize); % 訓練集特徵提取
[testFeatures, testLabels] = extractHogFromImageSet(testSet, hogFeatureSize, cellSize);    % 測試集特徵提取

tEnd = toc(tStart);
fprintf('提取特徵所用時間:%.2f秒\n', tEnd);

    以上程式碼首先進行圖片灰度化、二值化、尺寸調整等預處理操作,然後呼叫extractHogFromImageSet函式提取訓練和測試集的HOG特徵。由於圖片數量眾多,提取特徵過程尚需一定時間,這裡對訓練集、測試集提取過程進行計時,因計算機算力不同,執行時間可能會不一致,最終列印特徵提取所用的時間。

提取特徵所用的時間:18.73秒

4. 訓練和評估模型

    下面我們使用以上提取的HOG特徵構建支援向量機模型,利用提取的訓練集特徵進行訓練。首先利用templateSVM函式構建支援向量機模板引數,選擇gaussian核函式,執行標準化處理資料,顯示訓練過程;利用fitcecoc函式執行訓練過程,其程式碼如下。

% 訓練支援向量機
t = templateSVM('SaveSupportVectors',true, 'Standardize', true, 'KernelFunction','gaussian', ...
    'KernelScale', 'auto','Verbose', 0);      % 利用polynomial核函式, 標準化處理資料,顯示訓練過程(verbose取0時取消顯示)

tStart = tic; % 計時開始
classifier = fitcecoc(trainFeatures, trainLabels, 'Learner', t); % 訓練SVM模型
tEnd = toc(tStart);
fprintf('訓練模型所用時間:%.2f秒\n', tEnd);

    等待訓練完成,我們可以使用訓練好的分類器進行預測,這裡先利用測試集評估模型並計算分類評價指標,對測試集進行預測的程式碼如下:

tStart = tic;
% 對測試資料集進行預測
predictedLabels = predict(classifier, testFeatures);
tEnd = toc(tStart);
fprintf('模型對測試集進行預測所用時間:%.2f秒\n', tEnd);

    執行結果如下:

模型對測試集進行預測所用時間:5.75秒

    得到了預測結果,可以使用混淆矩陣評估結果,以下程式碼首先計算混淆矩陣結果,然後將結果列印出來:

功能演示動圖

    分類準確率可以通過以下程式碼進行計算:

accuracy = sum(predictedLabels == testLabels) / numel(testLabels);
fprintf('模型在測試集上的準確率:%.0f%%\n', accuracy*100);

    以上程式碼顯示了混淆矩陣的結果,但可能還不夠直觀,下面繪製混淆矩陣圖幫助更好了解模型效能:

% 繪製混淆矩陣圖
plotconfusion(testLabels, predictedLabels);

    執行程式碼後顯示混淆矩陣圖如下圖所示,每行對角線上的網格(綠色網格)處顯示了某類樣本預測正確的數目及其佔比。右下角網格表示分類的準確率,可以看出該分類器具有90.2%的總體分類準確率。

功能演示動圖

    為了便於後續測試,這裡儲存模型檔案,其程式碼如下:

save('trainedSvmModel.mat','classifier');

5. 測試模型

    這裡我們選取幾張圖片進行測試,以便對模型的效果有個更直觀的感受,這部分程式碼如下所示:

clear
clc
rng default  % 保證結果執行一致
img_test_1 = imread("../10_ObjectCategories/airplanes/image_0137.jpg");
img_test_2 = imread("../10_ObjectCategories/dragonfly/image_0001.jpg");
img_test_3 = imread("../10_ObjectCategories/inline_skate/image_0003.jpg");
img_test_4 = imread("../10_ObjectCategories/ketch/image_0005.jpg");
img_test_5 = imread("../10_ObjectCategories/Motorbikes/image_0006.jpg");
img_test_6 = imread("../10_ObjectCategories/umbrella/image_0010.jpg");

    讀取圖片後,首先利用imshow函式將幾張圖片顯示出來,採用subplot函式劃分圖片座標軸區域,以便將6張圖片展示出來:

figure;
subplot(2, 3, 1); imshow(img_test_1);
subplot(2, 3, 2); imshow(img_test_2);
subplot(2, 3, 3); imshow(img_test_3);
subplot(2, 3, 4); imshow(img_test_4);
subplot(2, 3, 5); imshow(img_test_5);
subplot(2, 3, 6); imshow(img_test_6);

    執行以上程式碼,執行結果如下圖所示:

功能演示動圖

    與上一章類似,首先提取HOG特徵,這裡將提取到的特徵進行視覺化展示,並將其與原始圖片進行對比,其程式碼如下:

img = rgb2gray(img_test_1);
img = imbinarize(img);
% img = imresize(img, [100 100]);
[hog_1, vis_1] = extractHOGFeatures(img,'CellSize',[4 4]);
figure
subplot(2,1,1);
imshow(img_test_1)
title("原始影像")
subplot(2, 1, 2)
plot(vis_1);
title("特徵影像")

    執行以上程式碼,特徵提取的影像執行結果如下圖所示:

功能演示動圖

    接下來我們載入前面訓練好的模型,對讀取到的圖片進行預測並顯示結果。值得注意的是,每張圖片在預測前的預處理工作,這裡通過程式碼將灰度化、二值化、HOG特徵的結果視覺化在同一個繪圖視窗中,其程式碼如下:

load("trainedSvmModel.mat", "classifier");
img_gray = rgb2gray(img_test_4);
img_bin = imbinarize(img_gray);
img = imresize(img_bin, [100 100]);
[hog_4, vis_4]  = extractHOGFeatures(img,'CellSize',[4 4]);

% 對測試資料集進行預測
fea_4 = extractHOGFeatures(img,'CellSize',[4 4]);
predictedLabels = predict(classifier, fea_4);
fprintf("預測結果:%s",predictedLabels);

figure
subplot(2,2,1)
imshow(img_test_4);
title(["預測結果:", char(predictedLabels)])
subplot(2,2,2)
imshow(img_gray);

subplot(2,2,3)
imshow(img_bin);
subplot(2,2,4)
plot(vis_4)

    執行以上程式碼,顯示結果如下:

功能演示動圖

下載連結

    若您想獲得博文中涉及的實現完整全部程式檔案(包括資料集,m, UI檔案等,如下圖),這裡已打包上傳至博主的麵包多平臺和CSDN下載資源。本資源已上傳至麵包多網站和CSDN下載資源頻道,可以點選以下連結獲取,已將所有涉及的檔案同時打包到裡面,點選即可執行,完整檔案截圖如下:

功能演示動圖

    在資料夾下的資源顯示如下:

功能演示動圖

注意:本資源已經過除錯通過,下載後可通過MATLAB R2021b執行;訓練主程式為main_trainClassifier.mlx,測試程式可執行main_testClassifier.mlx,要使用GUI介面請執行picClassifier.mlapp檔案;其它程式檔案大部分為函式而非可直接執行的指令碼,使用時請勿直接點選執行!➷➷➷

完整資源下載連結1博主在麵包多網站上的完整資源下載頁

完整資源下載連結2https://mianbaoduo.com/o/bread/mbd-YpiTl5ht

注:以上兩個連結為麵包多平臺下載連結,CSDN下載資源頻道下載連結稍後上傳。


結束語

        由於博主能力有限,博文中提及的方法即使經過試驗,也難免會有疏漏之處。希望您能熱心指出其中的錯誤,以便下次修改時能以一個更完美更嚴謹的樣子,呈現在大家面前。

相關文章