我的OpenCV學習筆記(六):使用支援向量機(SVM)

yansmile1發表於2015-12-08

SVM是2000年左右提出的一種新的分類方法,著重解決了小樣本分類問題。具體原理可以參看模式識別的書籍。OpenCV中的SVM的實現也是基於大名鼎鼎的SVM 庫:http://www.csie.ntu.edu.tw/~cjlin。OpenCV教程中有兩個例子,一個是線性可分的,一個是線性不可分的,我對他們做了詳盡的註釋:

先看(無噪聲)線性可分時:

  1. #include <opencv2/core/core.hpp>  
  2. #include <opencv2/highgui/highgui.hpp>  
  3. #include <opencv2/ml/ml.hpp>  
  4.   
  5. using namespace cv;  
  6.   
  7. int main()  
  8. {  
  9.     // Data for visual representation  
  10.     int width = 512, height = 512;  
  11.     Mat image = Mat::zeros(height, width, CV_8UC3);  
  12.   
  13.     // Set up training data  
  14.     float labels[5] = {1.0, -1.0, -1.0, -1.0,1.0};  
  15.     Mat labelsMat(5, 1, CV_32FC1, labels);  
  16.   
  17.   
  18.     float trainingData[5][2] = { {501, 10}, {255, 10}, {501, 255}, {10, 501},{501,128} };  
  19.     Mat trainingDataMat(5, 2, CV_32FC1, trainingData);  
  20.   
  21.     //設定支援向量機的引數  
  22.     CvSVMParams params;  
  23.     params.svm_type    = CvSVM::C_SVC;//SVM型別:使用C支援向量機  
  24.     params.kernel_type = CvSVM::LINEAR;//核函式型別:線性  
  25.     params.term_crit   = cvTermCriteria(CV_TERMCRIT_ITER, 100, 1e-6);//終止準則函式:當迭代次數達到最大值時終止  
  26.   
  27.     //訓練SVM  
  28.     //建立一個SVM類的例項  
  29.     CvSVM SVM;  
  30.     //訓練模型,引數為:輸入資料、響應、XX、XX、引數(前面設定過)  
  31.     SVM.train(trainingDataMat, labelsMat, Mat(), Mat(), params);  
  32.       
  33.     Vec3b green(0,255,0), blue (255,0,0);  
  34.     //顯示判決域  
  35.     for (int i = 0; i < image.rows; ++i)  
  36.         for (int j = 0; j < image.cols; ++j)  
  37.         {  
  38.                         Mat sampleMat = (Mat_<float>(1,2) << i,j);  
  39.             //predict是用來預測的,引數為:樣本、返回值型別(如果值為ture而且是一個2類問題則返回判決函式值,否則返回類標籤)、  
  40.             float response = SVM.predict(sampleMat);  
  41.   
  42.             if (response == 1)  
  43.                 image.at<Vec3b>(j, i)  = green;  
  44.             else if (response == -1)   
  45.                  image.at<Vec3b>(j, i)  = blue;  
  46.         }  
  47.   
  48.     //畫出訓練資料  
  49.     int thickness = -1;  
  50.     int lineType = 8;  
  51.     circle( image, Point(501,  10), 5, Scalar(  0,   0,   0), thickness, lineType);//畫圓  
  52.     circle( image, Point(255,  10), 5, Scalar(255, 255, 255), thickness, lineType);  
  53.     circle( image, Point(501, 255), 5, Scalar(255, 255, 255), thickness, lineType);  
  54.     circle( image, Point( 10, 501), 5, Scalar(255, 255, 255), thickness, lineType);  
  55.     circle(image, Point( 501, 128), 5, Scalar(0, 0, 0), thickness, lineType);  
  56.   
  57.     //顯示支援向量  
  58.     thickness = 2;  
  59.     lineType  = 8;  
  60.     //獲取支援向量的個數  
  61.     int c     = SVM.get_support_vector_count();  
  62.   
  63.     for (int i = 0; i < c; ++i)  
  64.     {  
  65.         //獲取第i個支援向量  
  66.         const float* v = SVM.get_support_vector(i);  
  67.         //支援向量用到的樣本點,用灰色進行標註  
  68.         circle( image,  Point( (int) v[0], (int) v[1]),   6,  Scalar(128, 128, 128), thickness, lineType);  
  69.     }  
  70.   
  71.     imwrite("result.png", image);        // save the image   
  72.   
  73.     imshow("SVM Simple Example", image); // show it to the user  
  74.     waitKey(0);  
  75.   
  76. }  


 

(含有噪聲)線性可分時由於樣本較多,訓練的時間比較長:

  1. #include <iostream>  
  2. #include <opencv2/core/core.hpp>  
  3. #include <opencv2/highgui/highgui.hpp>  
  4. #include <opencv2/ml/ml.hpp>  
  5. #include "time.h"  
  6.   
  7. using namespace cv;  
  8. using namespace std;  
  9. //程式說明:  
  10. //一共兩個樣本集每個樣本集有100個樣本,其中90個是線性可分的,10個線型不可分  
  11. //這200個樣本資料儲存在trainData內:trainData是一個200行2列的矩陣,其中第一列儲存樣本的X值,第二列儲存的是樣本的Y值  
  12. //每一列的前90個元素是第一類的線性可分部分,後90個元素是第二類的線性可分部分,中間的20個元素是線性不可分部分  
  13. //第一類樣本的X值分佈在整幅影像的[0,0.4]範圍內,第二類樣本的X值分佈在整幅影像的[0.6,1]範圍內,中間的[0.4,0.6]是線性不可分的部分;這三部分的Y值都在整幅影像的高度內自由分佈  
  14.   
  15.   
  16. //每個樣本集的數量  
  17. #define NTRAINING_SAMPLES 100  
  18.   
  19. //其中的線性部分  
  20. #define FRAC_LINEAR_SEP   0.9f  
  21.   
  22. int main()  
  23. {  
  24.     //定義顯示結果的影像  
  25.     //影像的寬度、高度  
  26.     const int WIDTH = 512,HEIGHT = 512;  
  27.     Mat image = Mat::zeros(HEIGHT,WIDTH,CV_8UC3);  
  28.   
  29.   
  30.   
  31.     //************第一步:設定訓練資料***********  
  32.     //************1.設定資料結構****************  
  33.     //承載訓練資料的結構  
  34.     Mat trainData(2*NTRAINING_SAMPLES,2,CV_32FC1);  
  35.     //承載這些資料分類的結構  
  36.     Mat labels(2*NTRAINING_SAMPLES,1,CV_32FC1);  
  37.     //設定隨機數種子  
  38.     RNG rng(100);  
  39.     //設定線性可分部分的資料量  
  40.     int nLinearSamples = (int) (NTRAINING_SAMPLES*FRAC_LINEAR_SEP);  
  41.   
  42.     //**************2.設定第一類中的資料*********  
  43.     //從整個資料集中取出前[0,89]行  
  44.     //注:*Range的範圍是[a,b)  
  45.     Mat trainClass = trainData.rowRange(0,nLinearSamples);  
  46.     //取出第一列  
  47.     Mat c = trainClass.colRange(0,1);  
  48.     //隨機生成X的值:[0,0.4*WIDTH]  
  49.     rng.fill(c,RNG::UNIFORM,Scalar(1),Scalar(0.4*WIDTH));  
  50.     //取出第二列  
  51.     c = trainClass.colRange(1,2);  
  52.     //隨機生成Y的值  
  53.     rng.fill(c,RNG::UNIFORM,Scalar(1),Scalar(HEIGHT));  
  54.   
  55.     //**************2.設定第二類的資料*************  
  56.     //從整個資料中取出[110,199]行  
  57.     trainClass = trainData.rowRange(2*NTRAINING_SAMPLES-nLinearSamples,2*NTRAINING_SAMPLES);  
  58.     //取出第一列  
  59.     c = trainClass.colRange(0,1);  
  60.     //隨機生成X的值[0.6*WIDTH,WIDTH]  
  61.     rng.fill(c,RNG::UNIFORM,Scalar(0.6*WIDTH),Scalar(WIDTH));  
  62.     //取出第二列  
  63.     c = trainClass.colRange(1,2);  
  64.     //隨機生成Y的值  
  65.     rng.fill(c,RNG::UNIFORM,Scalar(1),Scalar(HEIGHT));  
  66.   
  67.     //***************3.設定線性不可分的資料***********  
  68.     //取出[90,109]行  
  69.     trainClass = trainData.rowRange(nLinearSamples,2*NTRAINING_SAMPLES-nLinearSamples);  
  70.     //取出第一列  
  71.     c = trainClass.colRange(0,1);  
  72.     //隨機生成X的值[0.4*WIDTH,0.6*WIDTH]  
  73.     rng.fill(c,RNG::UNIFORM,Scalar(0.4*WIDTH),Scalar(0.6*WIDTH));  
  74.     //取出第二列  
  75.     c = trainClass.colRange(1,2);  
  76.     //隨機生成Y的值  
  77.     rng.fill(c,RNG::UNIFORM,Scalar(1),Scalar(HEIGHT));  
  78.   
  79.   
  80.     //***************4.為所有資料設定標籤**********  
  81.     //前100個資料設為第一類  
  82.     labels.rowRange(0,NTRAINING_SAMPLES).setTo(1);  
  83.     //後100個資料設為第二類  
  84.     labels.rowRange(NTRAINING_SAMPLES,2*NTRAINING_SAMPLES).setTo(2);  
  85.   
  86.   
  87.     //**************第二步:設定SVM引數***********  
  88.     CvSVMParams params;  
  89.     //SVM型別: C-Support Vector Classification  
  90.     params.svm_type     = SVM::C_SVC;  
  91.   
  92.     params.C            = 0.1;  
  93.     //和函式型別:Linear kernel  
  94.     params.kernel_type  = SVM::LINEAR;  
  95.     //終止準則:當迭代次數到達最大值後終止  
  96.     params.term_crit    = TermCriteria(CV_TERMCRIT_ITER,(int) 1e7,1e-6);  
  97.   
  98.   
  99.   
  100.     //**************第三步:訓練SVM***********  
  101.     cout<<"開始訓練過程"<<endl;  
  102.     //開始計時  
  103.     clock_t start,finish;  
  104.     double duration;  
  105.     start = clock();  
  106.     //*************1.建立一個SVM例項**********  
  107.     CvSVM svm;  
  108.     //*************2.呼叫訓練函式*************  
  109.     svm.train(trainData,labels,Mat(),Mat(),params);  
  110.     //結束計時  
  111.     finish = clock();  
  112.     duration = (double)(finish-start) / CLOCKS_PER_SEC;  
  113.     cout<<"訓練過程結束,共耗時:"<<duration<<"秒"<<endl;  
  114.   
  115.   
  116.   
  117.   
  118.     //************第四步:顯示判決域************  
  119.     //第一類用綠色;第二類用藍色  
  120.     Vec3b green(0,100,0),blue(100,0,0);  
  121.     for(int i = 0; i < image.rows; ++i)  
  122.     {  
  123.         for(int j = 0; j < image.cols; ++j)  
  124.         {  
  125.             Mat sampleMat = (Mat_<float>(1,2)<<i,j);  
  126.             float response = svm.predict(sampleMat);  
  127.             if (response == 1)  
  128.             {  
  129.                 image.at<Vec3b>(j,i) = green;  
  130.             }  
  131.             else if (response == 2)  
  132.             {  
  133.                 image.at<Vec3b>(j,i) = blue;  
  134.             }  
  135.         }  
  136.     }  
  137.   
  138.   
  139.   
  140.     //************第五步:顯示訓練資料************  
  141.     //紅色  
  142.     //負數會導致畫出的圖型是實心的  
  143.     int thick = -1;  
  144.     int lineType = 8;  
  145.     float px,py;  
  146.     //************1.第一類*************  
  147.     for(int i = 0; i < NTRAINING_SAMPLES; ++i)  
  148.     {  
  149.         px = trainData.at<float>(i,0);  
  150.         py = trainData.at<float>(i,1);  
  151.         circle(image,Point((int)px,(int)py),3,Scalar(0,255,0));  
  152.     }  
  153.     //***********2.第二類****************  
  154.     for(int i = NTRAINING_SAMPLES; i < 2*NTRAINING_SAMPLES; ++i)  
  155.     {  
  156.         px = trainData.at<float>(i,0);  
  157.         py = trainData.at<float>(i,1);  
  158.         circle(image,Point((int)px,(int)py),3,Scalar(255,0,0));       
  159.     }  
  160.   
  161.   
  162.   
  163.     //***********第六步:顯示支援向量*************  
  164.     thick = 2;  
  165.     lineType = 8;  
  166.     //獲取支援向量的個數  
  167.     int x = svm.get_support_vector_count();  
  168.     for(int i = 0; i < x; ++i)  
  169.     {  
  170.         const float* v = svm.get_support_vector(i);  
  171.         circle(image,Point((int)v[0],(int)v[1]),6,Scalar(128,128,128),thick,lineType);  
  172.     }  
  173.     imshow("分類結果",image);  
  174.     waitKey(0);  
  175.     return 0;  
  176. }  

網址:http://blog.csdn.net/thefutureisour/article/details/7491565

相關文章