【python資料探勘課程】二十七.基於SVM分類器的紅酒資料分析
這是《Python資料探勘課程》系列文章,前面很多文章都講解了分類、聚類演算法,這篇文章主要講解SVM分類演算法,同時講解如何讀取TXT檔案資料並進行資料分析及評價的過程。
文章比較基礎,希望對你有所幫助,提供些思路,也是自己教學的內容。推薦大家購買作者新書《Python網路資料爬取及分析從入門到精通(分析篇)》,如果文章中存在錯誤或不足之處,還請海涵。
目錄:
一.SVM基礎概念
二.SVM基本使用方法
三.TXT紅酒資料集預處理
四.SVM分析紅酒資料
五.程式碼優化
PS:最近參加CSDN2018年部落格評選,希望您能投出寶貴的一票。我是59號,Eastmount,楊秀璋。投票地址:https://bss.csdn.net/m/topic/blog_star2018/index
前文參考:
【Python資料探勘課程】一.安裝Python及爬蟲入門介紹
【Python資料探勘課程】二.Kmeans聚類資料分析及Anaconda介紹
【Python資料探勘課程】三.Kmeans聚類程式碼實現、作業及優化
【Python資料探勘課程】四.決策樹DTC資料分析及鳶尾資料集分析
【Python資料探勘課程】五.線性迴歸知識及預測糖尿病例項
【Python資料探勘課程】六.Numpy、Pandas和Matplotlib包基礎知識
【Python資料探勘課程】七.PCA降維操作及subplot子圖繪製
【Python資料探勘課程】八.關聯規則挖掘及Apriori實現購物推薦
【Python資料探勘課程】九.迴歸模型LinearRegression簡單分析氧化物資料
【python資料探勘課程】十.Pandas、Matplotlib、PCA繪圖實用程式碼補充
【python資料探勘課程】十一.Pandas、Matplotlib結合SQL語句視覺化分析
【python資料探勘課程】十二.Pandas、Matplotlib結合SQL語句對比圖分析
【python資料探勘課程】十三.WordCloud詞雲配置過程及詞頻分析
【python資料探勘課程】十四.Scipy呼叫curve_fit實現曲線擬合
【python資料探勘課程】十五.Matplotlib呼叫imshow()函式繪製熱圖
【python資料探勘課程】十六.邏輯迴歸LogisticRegression分析鳶尾花資料
【python資料探勘課程】十七.社交網路Networkx庫分析人物關係(初識篇)
【python資料探勘課程】十八.線性迴歸及多項式迴歸分析四個案例分享
【python資料探勘課程】十九.鳶尾花資料集視覺化、線性迴歸、決策樹花樣分析
【python資料探勘課程】二十.KNN最近鄰分類演算法分析詳解及平衡秤TXT資料集讀取
【python資料探勘課程】二十一.樸素貝葉斯分類器詳解及中文文字輿情分析
【python資料探勘課程】二十二.Basemap地圖包安裝入門及基礎知識講解
【python資料探勘課程】二十三.時間序列金融資料預測及Pandas庫詳解
【python資料探勘課程】二十四.KMeans文字聚類分析互動百科語料
【python資料探勘課程】二十五.Matplotlib繪製帶主題及聚類類標的散點圖
【python資料探勘課程】二十六.基於SnowNLP的豆瓣評論情感分析
【python資料探勘課程】二十七.基於SVM分類器的紅酒資料分析
一.SVM基礎概念
支援向量機(Support Vector Machine,簡稱SVM)是常見的一種判別方法。在機器學習領域,是一個有監督的學習模型,通常用來進行模式識別、分類以及迴歸分析。該演算法的最大特點是根據結構風險最小化準則,以最大化分類間隔構造最優分類超平面來提高學習機的泛化能力,較好地解決了非線性、高維數、區域性極小點等問題。
由於作者數學推算能力不太好,同時SVM原理也比較複雜,所以SVM演算法基礎知識推薦大家閱讀CSDN部落格著名演算法大神“JULY”的文章《支援向量機通俗導論(理解SVM的三層境界)》,這篇文章由淺入深的講解了SVM演算法,而本小節作者主要講解SVM的用法。
SVM分類演算法的核心思想是通過建立某種核函式,將資料在高維尋找一個滿足分類要求的超平面,使訓練集中的點距離分類面儘可能的遠,即尋找一個分類面使得其兩側的空白區域最大。如圖所示,兩類樣本中離分類面最近的點且平行於最優分類面的超平面上的訓練樣本就叫做支援向量。
二.SVM基本使用方法
1.SVM原型
SVM分類演算法在Sklearn機器學習包中,實現的類是svm.SVC,即C-Support Vector Classification,它是基於libsvm實現的。構造方法如下:
SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0,
decision_function_shape=None, degree=3, gamma='auto', kernel='rbf',
max_iter=-1, probability=False, random_state=None, shrinking=True,
tol=0.001, verbose=False)
其中引數C表示目標函式的懲罰係數,用來平衡分類間隔margin和錯分樣本的,預設值為1.0;引數cache_size是制定訓練所需要的記憶體(以MB為單位);引數gamma是核函式的係數,預設是gamma=1/n_features;引數kernel可以選擇RBF、Linear、Poly、Sigmoid,預設的是RBF;引數degree決定了多項式的最高次冪;引數max_iter表示最大迭代次數,預設值為1;引數coef0是核函式中的獨立項;引數class_weight表示每個類所佔據的權重,不同的類設定不同的懲罰引數C,預設為自適應;引數decision_function_shape包括ovo(一對一)、ovr(多對多)或None(預設值)。
2.演算法步驟
SVC演算法主要包括兩個步驟:
- 訓練:nbrs.fit(data, target)。
- 預測:pre = clf.predict(data)。
下面這段程式碼是簡單呼叫SVC分類演算法進行預測的例子,資料集中x和y座標為負數的類標為1,x和y座標為正數的類標為2,同時預測點[-0.8,-1]的類標為1,點[2,1]的類標為2。
import numpy as np
from sklearn.svm import SVC
X = np.array([[-1, -1], [-2, -2], [1, 3], [4, 6]])
y = np.array([1, 1, 2, 2])
clf = SVC()
clf.fit(X, y)
print clf.fit(X,y)
print(clf.predict([[-0.8,-1], [2,1]]))
#輸出結果:[1, 2]
支援向量機分類器還有其他的方法,比如NuSVC核支援向量分類,LinearSVC線性向量支援分類等,這裡不再介紹。同時,支援向量機也已經推廣到解決迴歸問題,稱為支援向量迴歸,比如SVR做線性迴歸。
三.TXT紅酒資料集預處理
1.資料集描述
該實驗資料集是UCI Machine Learning Repository開源網站提供的MostPopular Data Sets(hits since 2007)紅酒資料集,它是對義大利同一地區生產的三種不同品種的酒,做大量分析所得出的資料。這些資料包括了三種類別的酒,酒中共13種不同成分的特徵,共178行資料,如下圖所示。
該資料集包括了三種型別酒中13種不同成分的數量,13種成分分別是:Alcohol、Malicacid、Ash、Alcalinity of ash、Magnesium、Total phenols、Flavanoids、Nonflavanoid phenols、Proanthocyanins、Color intensity、Hue、OD280/OD315 of diluted wines和Proline,每一種成分可以看成一個特徵,對應一個資料。三種型別的酒分別標記為“1”、“2”、“3”。資料集特徵描述如下表所示。
資料儲存在wine.txt檔案中,如下圖所示。每行資料代表一個樣本,共178行資料,每行資料包含14列,即第一列為類標屬性,後面依次是13列特徵。其中第1類有59個樣本,第2類有71個樣本,第3類有48個樣本。
2.原始資料集
資料集原文描述如下:
Data Set Information
These data are the results of a chemical analysis of wines grown in the same region in
Italy but derived from three different cultivars. The analysis determined the quantities of
13 constituents found in each of the three types of wines.
I think that the initial data set had around 30 variables, but for some reason I only
have the 13 dimensional version. I had a list of what the 30 or so variables were, but
a.) I lost it, and b.), I would not know which 13 variables are included in the set.
The attributes are (dontated by Riccardo Leardi, riclea '@' anchem.unige.it )
1) Alcohol
2) Malic acid
3) Ash
4) Alcalinity of ash
5) Magnesium
6) Total phenols
7) Flavanoids
8) Nonflavanoid phenols
9) Proanthocyanins
10)Color intensity
11)Hue
12)OD280OD315 of diluted wines
13)Proline
In a classification context, this is a well posed problem with well behaved class
structures. A good data set for first testing of a new classifier, but not very challenging.
Attribute Information
All attributes are continuous
No statistics available, but suggest to standardise variables for certain uses (e.g. for us with classifiers which are NOT scale invariant)
NOTE 1st attribute is class identifier (1-3)
資料集完整資料如下(讀者可複製至txt檔案中):
1,14.23,1.71,2.43,15.6,127,2.8,3.06,.28,2.29,5.64,1.04,3.92,1065
1,13.2,1.78,2.14,11.2,100,2.65,2.76,.26,1.28,4.38,1.05,3.4,1050
1,13.16,2.36,2.67,18.6,101,2.8,3.24,.3,2.81,5.68,1.03,3.17,1185
1,14.37,1.95,2.5,16.8,113,3.85,3.49,.24,2.18,7.8,.86,3.45,1480
1,13.24,2.59,2.87,21,118,2.8,2.69,.39,1.82,4.32,1.04,2.93,735
1,14.2,1.76,2.45,15.2,112,3.27,3.39,.34,1.97,6.75,1.05,2.85,1450
1,14.39,1.87,2.45,14.6,96,2.5,2.52,.3,1.98,5.25,1.02,3.58,1290
1,14.06,2.15,2.61,17.6,121,2.6,2.51,.31,1.25,5.05,1.06,3.58,1295
1,14.83,1.64,2.17,14,97,2.8,2.98,.29,1.98,5.2,1.08,2.85,1045
1,13.86,1.35,2.27,16,98,2.98,3.15,.22,1.85,7.22,1.01,3.55,1045
1,14.1,2.16,2.3,18,105,2.95,3.32,.22,2.38,5.75,1.25,3.17,1510
1,14.12,1.48,2.32,16.8,95,2.2,2.43,.26,1.57,5,1.17,2.82,1280
1,13.75,1.73,2.41,16,89,2.6,2.76,.29,1.81,5.6,1.15,2.9,1320
1,14.75,1.73,2.39,11.4,91,3.1,3.69,.43,2.81,5.4,1.25,2.73,1150
1,14.38,1.87,2.38,12,102,3.3,3.64,.29,2.96,7.5,1.2,3,1547
1,13.63,1.81,2.7,17.2,112,2.85,2.91,.3,1.46,7.3,1.28,2.88,1310
1,14.3,1.92,2.72,20,120,2.8,3.14,.33,1.97,6.2,1.07,2.65,1280
1,13.83,1.57,2.62,20,115,2.95,3.4,.4,1.72,6.6,1.13,2.57,1130
1,14.19,1.59,2.48,16.5,108,3.3,3.93,.32,1.86,8.7,1.23,2.82,1680
1,13.64,3.1,2.56,15.2,116,2.7,3.03,.17,1.66,5.1,.96,3.36,845
1,14.06,1.63,2.28,16,126,3,3.17,.24,2.1,5.65,1.09,3.71,780
1,12.93,3.8,2.65,18.6,102,2.41,2.41,.25,1.98,4.5,1.03,3.52,770
1,13.71,1.86,2.36,16.6,101,2.61,2.88,.27,1.69,3.8,1.11,4,1035
1,12.85,1.6,2.52,17.8,95,2.48,2.37,.26,1.46,3.93,1.09,3.63,1015
1,13.5,1.81,2.61,20,96,2.53,2.61,.28,1.66,3.52,1.12,3.82,845
1,13.05,2.05,3.22,25,124,2.63,2.68,.47,1.92,3.58,1.13,3.2,830
1,13.39,1.77,2.62,16.1,93,2.85,2.94,.34,1.45,4.8,.92,3.22,1195
1,13.3,1.72,2.14,17,94,2.4,2.19,.27,1.35,3.95,1.02,2.77,1285
1,13.87,1.9,2.8,19.4,107,2.95,2.97,.37,1.76,4.5,1.25,3.4,915
1,14.02,1.68,2.21,16,96,2.65,2.33,.26,1.98,4.7,1.04,3.59,1035
1,13.73,1.5,2.7,22.5,101,3,3.25,.29,2.38,5.7,1.19,2.71,1285
1,13.58,1.66,2.36,19.1,106,2.86,3.19,.22,1.95,6.9,1.09,2.88,1515
1,13.68,1.83,2.36,17.2,104,2.42,2.69,.42,1.97,3.84,1.23,2.87,990
1,13.76,1.53,2.7,19.5,132,2.95,2.74,.5,1.35,5.4,1.25,3,1235
1,13.51,1.8,2.65,19,110,2.35,2.53,.29,1.54,4.2,1.1,2.87,1095
1,13.48,1.81,2.41,20.5,100,2.7,2.98,.26,1.86,5.1,1.04,3.47,920
1,13.28,1.64,2.84,15.5,110,2.6,2.68,.34,1.36,4.6,1.09,2.78,880
1,13.05,1.65,2.55,18,98,2.45,2.43,.29,1.44,4.25,1.12,2.51,1105
1,13.07,1.5,2.1,15.5,98,2.4,2.64,.28,1.37,3.7,1.18,2.69,1020
1,14.22,3.99,2.51,13.2,128,3,3.04,.2,2.08,5.1,.89,3.53,760
1,13.56,1.71,2.31,16.2,117,3.15,3.29,.34,2.34,6.13,.95,3.38,795
1,13.41,3.84,2.12,18.8,90,2.45,2.68,.27,1.48,4.28,.91,3,1035
1,13.88,1.89,2.59,15,101,3.25,3.56,.17,1.7,5.43,.88,3.56,1095
1,13.24,3.98,2.29,17.5,103,2.64,2.63,.32,1.66,4.36,.82,3,680
1,13.05,1.77,2.1,17,107,3,3,.28,2.03,5.04,.88,3.35,885
1,14.21,4.04,2.44,18.9,111,2.85,2.65,.3,1.25,5.24,.87,3.33,1080
1,14.38,3.59,2.28,16,102,3.25,3.17,.27,2.19,4.9,1.04,3.44,1065
1,13.9,1.68,2.12,16,101,3.1,3.39,.21,2.14,6.1,.91,3.33,985
1,14.1,2.02,2.4,18.8,103,2.75,2.92,.32,2.38,6.2,1.07,2.75,1060
1,13.94,1.73,2.27,17.4,108,2.88,3.54,.32,2.08,8.90,1.12,3.1,1260
1,13.05,1.73,2.04,12.4,92,2.72,3.27,.17,2.91,7.2,1.12,2.91,1150
1,13.83,1.65,2.6,17.2,94,2.45,2.99,.22,2.29,5.6,1.24,3.37,1265
1,13.82,1.75,2.42,14,111,3.88,3.74,.32,1.87,7.05,1.01,3.26,1190
1,13.77,1.9,2.68,17.1,115,3,2.79,.39,1.68,6.3,1.13,2.93,1375
1,13.74,1.67,2.25,16.4,118,2.6,2.9,.21,1.62,5.85,.92,3.2,1060
1,13.56,1.73,2.46,20.5,116,2.96,2.78,.2,2.45,6.25,.98,3.03,1120
1,14.22,1.7,2.3,16.3,118,3.2,3,.26,2.03,6.38,.94,3.31,970
1,13.29,1.97,2.68,16.8,102,3,3.23,.31,1.66,6,1.07,2.84,1270
1,13.72,1.43,2.5,16.7,108,3.4,3.67,.19,2.04,6.8,.89,2.87,1285
2,12.37,.94,1.36,10.6,88,1.98,.57,.28,.42,1.95,1.05,1.82,520
2,12.33,1.1,2.28,16,101,2.05,1.09,.63,.41,3.27,1.25,1.67,680
2,12.64,1.36,2.02,16.8,100,2.02,1.41,.53,.62,5.75,.98,1.59,450
2,13.67,1.25,1.92,18,94,2.1,1.79,.32,.73,3.8,1.23,2.46,630
2,12.37,1.13,2.16,19,87,3.5,3.1,.19,1.87,4.45,1.22,2.87,420
2,12.17,1.45,2.53,19,104,1.89,1.75,.45,1.03,2.95,1.45,2.23,355
2,12.37,1.21,2.56,18.1,98,2.42,2.65,.37,2.08,4.6,1.19,2.3,678
2,13.11,1.01,1.7,15,78,2.98,3.18,.26,2.28,5.3,1.12,3.18,502
2,12.37,1.17,1.92,19.6,78,2.11,2,.27,1.04,4.68,1.12,3.48,510
2,13.34,.94,2.36,17,110,2.53,1.3,.55,.42,3.17,1.02,1.93,750
2,12.21,1.19,1.75,16.8,151,1.85,1.28,.14,2.5,2.85,1.28,3.07,718
2,12.29,1.61,2.21,20.4,103,1.1,1.02,.37,1.46,3.05,.906,1.82,870
2,13.86,1.51,2.67,25,86,2.95,2.86,.21,1.87,3.38,1.36,3.16,410
2,13.49,1.66,2.24,24,87,1.88,1.84,.27,1.03,3.74,.98,2.78,472
2,12.99,1.67,2.6,30,139,3.3,2.89,.21,1.96,3.35,1.31,3.5,985
2,11.96,1.09,2.3,21,101,3.38,2.14,.13,1.65,3.21,.99,3.13,886
2,11.66,1.88,1.92,16,97,1.61,1.57,.34,1.15,3.8,1.23,2.14,428
2,13.03,.9,1.71,16,86,1.95,2.03,.24,1.46,4.6,1.19,2.48,392
2,11.84,2.89,2.23,18,112,1.72,1.32,.43,.95,2.65,.96,2.52,500
2,12.33,.99,1.95,14.8,136,1.9,1.85,.35,2.76,3.4,1.06,2.31,750
2,12.7,3.87,2.4,23,101,2.83,2.55,.43,1.95,2.57,1.19,3.13,463
2,12,.92,2,19,86,2.42,2.26,.3,1.43,2.5,1.38,3.12,278
2,12.72,1.81,2.2,18.8,86,2.2,2.53,.26,1.77,3.9,1.16,3.14,714
2,12.08,1.13,2.51,24,78,2,1.58,.4,1.4,2.2,1.31,2.72,630
2,13.05,3.86,2.32,22.5,85,1.65,1.59,.61,1.62,4.8,.84,2.01,515
2,11.84,.89,2.58,18,94,2.2,2.21,.22,2.35,3.05,.79,3.08,520
2,12.67,.98,2.24,18,99,2.2,1.94,.3,1.46,2.62,1.23,3.16,450
2,12.16,1.61,2.31,22.8,90,1.78,1.69,.43,1.56,2.45,1.33,2.26,495
2,11.65,1.67,2.62,26,88,1.92,1.61,.4,1.34,2.6,1.36,3.21,562
2,11.64,2.06,2.46,21.6,84,1.95,1.69,.48,1.35,2.8,1,2.75,680
2,12.08,1.33,2.3,23.6,70,2.2,1.59,.42,1.38,1.74,1.07,3.21,625
2,12.08,1.83,2.32,18.5,81,1.6,1.5,.52,1.64,2.4,1.08,2.27,480
2,12,1.51,2.42,22,86,1.45,1.25,.5,1.63,3.6,1.05,2.65,450
2,12.69,1.53,2.26,20.7,80,1.38,1.46,.58,1.62,3.05,.96,2.06,495
2,12.29,2.83,2.22,18,88,2.45,2.25,.25,1.99,2.15,1.15,3.3,290
2,11.62,1.99,2.28,18,98,3.02,2.26,.17,1.35,3.25,1.16,2.96,345
2,12.47,1.52,2.2,19,162,2.5,2.27,.32,3.28,2.6,1.16,2.63,937
2,11.81,2.12,2.74,21.5,134,1.6,.99,.14,1.56,2.5,.95,2.26,625
2,12.29,1.41,1.98,16,85,2.55,2.5,.29,1.77,2.9,1.23,2.74,428
2,12.37,1.07,2.1,18.5,88,3.52,3.75,.24,1.95,4.5,1.04,2.77,660
2,12.29,3.17,2.21,18,88,2.85,2.99,.45,2.81,2.3,1.42,2.83,406
2,12.08,2.08,1.7,17.5,97,2.23,2.17,.26,1.4,3.3,1.27,2.96,710
2,12.6,1.34,1.9,18.5,88,1.45,1.36,.29,1.35,2.45,1.04,2.77,562
2,12.34,2.45,2.46,21,98,2.56,2.11,.34,1.31,2.8,.8,3.38,438
2,11.82,1.72,1.88,19.5,86,2.5,1.64,.37,1.42,2.06,.94,2.44,415
2,12.51,1.73,1.98,20.5,85,2.2,1.92,.32,1.48,2.94,1.04,3.57,672
2,12.42,2.55,2.27,22,90,1.68,1.84,.66,1.42,2.7,.86,3.3,315
2,12.25,1.73,2.12,19,80,1.65,2.03,.37,1.63,3.4,1,3.17,510
2,12.72,1.75,2.28,22.5,84,1.38,1.76,.48,1.63,3.3,.88,2.42,488
2,12.22,1.29,1.94,19,92,2.36,2.04,.39,2.08,2.7,.86,3.02,312
2,11.61,1.35,2.7,20,94,2.74,2.92,.29,2.49,2.65,.96,3.26,680
2,11.46,3.74,1.82,19.5,107,3.18,2.58,.24,3.58,2.9,.75,2.81,562
2,12.52,2.43,2.17,21,88,2.55,2.27,.26,1.22,2,.9,2.78,325
2,11.76,2.68,2.92,20,103,1.75,2.03,.6,1.05,3.8,1.23,2.5,607
2,11.41,.74,2.5,21,88,2.48,2.01,.42,1.44,3.08,1.1,2.31,434
2,12.08,1.39,2.5,22.5,84,2.56,2.29,.43,1.04,2.9,.93,3.19,385
2,11.03,1.51,2.2,21.5,85,2.46,2.17,.52,2.01,1.9,1.71,2.87,407
2,11.82,1.47,1.99,20.8,86,1.98,1.6,.3,1.53,1.95,.95,3.33,495
2,12.42,1.61,2.19,22.5,108,2,2.09,.34,1.61,2.06,1.06,2.96,345
2,12.77,3.43,1.98,16,80,1.63,1.25,.43,.83,3.4,.7,2.12,372
2,12,3.43,2,19,87,2,1.64,.37,1.87,1.28,.93,3.05,564
2,11.45,2.4,2.42,20,96,2.9,2.79,.32,1.83,3.25,.8,3.39,625
2,11.56,2.05,3.23,28.5,119,3.18,5.08,.47,1.87,6,.93,3.69,465
2,12.42,4.43,2.73,26.5,102,2.2,2.13,.43,1.71,2.08,.92,3.12,365
2,13.05,5.8,2.13,21.5,86,2.62,2.65,.3,2.01,2.6,.73,3.1,380
2,11.87,4.31,2.39,21,82,2.86,3.03,.21,2.91,2.8,.75,3.64,380
2,12.07,2.16,2.17,21,85,2.6,2.65,.37,1.35,2.76,.86,3.28,378
2,12.43,1.53,2.29,21.5,86,2.74,3.15,.39,1.77,3.94,.69,2.84,352
2,11.79,2.13,2.78,28.5,92,2.13,2.24,.58,1.76,3,.97,2.44,466
2,12.37,1.63,2.3,24.5,88,2.22,2.45,.4,1.9,2.12,.89,2.78,342
2,12.04,4.3,2.38,22,80,2.1,1.75,.42,1.35,2.6,.79,2.57,580
3,12.86,1.35,2.32,18,122,1.51,1.25,.21,.94,4.1,.76,1.29,630
3,12.88,2.99,2.4,20,104,1.3,1.22,.24,.83,5.4,.74,1.42,530
3,12.81,2.31,2.4,24,98,1.15,1.09,.27,.83,5.7,.66,1.36,560
3,12.7,3.55,2.36,21.5,106,1.7,1.2,.17,.84,5,.78,1.29,600
3,12.51,1.24,2.25,17.5,85,2,.58,.6,1.25,5.45,.75,1.51,650
3,12.6,2.46,2.2,18.5,94,1.62,.66,.63,.94,7.1,.73,1.58,695
3,12.25,4.72,2.54,21,89,1.38,.47,.53,.8,3.85,.75,1.27,720
3,12.53,5.51,2.64,25,96,1.79,.6,.63,1.1,5,.82,1.69,515
3,13.49,3.59,2.19,19.5,88,1.62,.48,.58,.88,5.7,.81,1.82,580
3,12.84,2.96,2.61,24,101,2.32,.6,.53,.81,4.92,.89,2.15,590
3,12.93,2.81,2.7,21,96,1.54,.5,.53,.75,4.6,.77,2.31,600
3,13.36,2.56,2.35,20,89,1.4,.5,.37,.64,5.6,.7,2.47,780
3,13.52,3.17,2.72,23.5,97,1.55,.52,.5,.55,4.35,.89,2.06,520
3,13.62,4.95,2.35,20,92,2,.8,.47,1.02,4.4,.91,2.05,550
3,12.25,3.88,2.2,18.5,112,1.38,.78,.29,1.14,8.21,.65,2,855
3,13.16,3.57,2.15,21,102,1.5,.55,.43,1.3,4,.6,1.68,830
3,13.88,5.04,2.23,20,80,.98,.34,.4,.68,4.9,.58,1.33,415
3,12.87,4.61,2.48,21.5,86,1.7,.65,.47,.86,7.65,.54,1.86,625
3,13.32,3.24,2.38,21.5,92,1.93,.76,.45,1.25,8.42,.55,1.62,650
3,13.08,3.9,2.36,21.5,113,1.41,1.39,.34,1.14,9.40,.57,1.33,550
3,13.5,3.12,2.62,24,123,1.4,1.57,.22,1.25,8.60,.59,1.3,500
3,12.79,2.67,2.48,22,112,1.48,1.36,.24,1.26,10.8,.48,1.47,480
3,13.11,1.9,2.75,25.5,116,2.2,1.28,.26,1.56,7.1,.61,1.33,425
3,13.23,3.3,2.28,18.5,98,1.8,.83,.61,1.87,10.52,.56,1.51,675
3,12.58,1.29,2.1,20,103,1.48,.58,.53,1.4,7.6,.58,1.55,640
3,13.17,5.19,2.32,22,93,1.74,.63,.61,1.55,7.9,.6,1.48,725
3,13.84,4.12,2.38,19.5,89,1.8,.83,.48,1.56,9.01,.57,1.64,480
3,12.45,3.03,2.64,27,97,1.9,.58,.63,1.14,7.5,.67,1.73,880
3,14.34,1.68,2.7,25,98,2.8,1.31,.53,2.7,13,.57,1.96,660
3,13.48,1.67,2.64,22.5,89,2.6,1.1,.52,2.29,11.75,.57,1.78,620
3,12.36,3.83,2.38,21,88,2.3,.92,.5,1.04,7.65,.56,1.58,520
3,13.69,3.26,2.54,20,107,1.83,.56,.5,.8,5.88,.96,1.82,680
3,12.85,3.27,2.58,22,106,1.65,.6,.6,.96,5.58,.87,2.11,570
3,12.96,3.45,2.35,18.5,106,1.39,.7,.4,.94,5.28,.68,1.75,675
3,13.78,2.76,2.3,22,90,1.35,.68,.41,1.03,9.58,.7,1.68,615
3,13.73,4.36,2.26,22.5,88,1.28,.47,.52,1.15,6.62,.78,1.75,520
3,13.45,3.7,2.6,23,111,1.7,.92,.43,1.46,10.68,.85,1.56,695
3,12.82,3.37,2.3,19.5,88,1.48,.66,.4,.97,10.26,.72,1.75,685
3,13.58,2.58,2.69,24.5,105,1.55,.84,.39,1.54,8.66,.74,1.8,750
3,13.4,4.6,2.86,25,112,1.98,.96,.27,1.11,8.5,.67,1.92,630
3,12.2,3.03,2.32,19,96,1.25,.49,.4,.73,5.5,.66,1.83,510
3,12.77,2.39,2.28,19.5,86,1.39,.51,.48,.64,9.899999,.57,1.63,470
3,14.16,2.51,2.48,20,91,1.68,.7,.44,1.24,9.7,.62,1.71,660
3,13.71,5.65,2.45,20.5,95,1.68,.61,.52,1.06,7.7,.64,1.74,740
3,13.4,3.91,2.48,23,102,1.8,.75,.43,1.41,7.3,.7,1.56,750
3,13.27,4.28,2.26,20,120,1.59,.69,.43,1.35,10.2,.59,1.56,835
3,13.17,2.59,2.37,20,120,1.65,.68,.53,1.46,9.3,.6,1.62,840
3,14.13,4.1,2.74,24.5,96,2.05,.76,.56,1.35,9.2,.61,1.6,560
3.讀取資料集
整個資料集採用逗號分隔,常用讀取該型別資料集的方法是呼叫open()函式讀取檔案,依次讀取TXT檔案中所有內容,再按照逗號分割符獲取每行的14列資料儲存至陣列或矩陣中,從而進行資料分析。這裡講述另一種方法,呼叫loadtxt()函式讀取逗號分隔的資料,程式碼如下:
# -*- coding: utf-8 -*-
import os
import numpy as np
path = u"wine.txt"
data = np.loadtxt(path,dtype=float,delimiter=",")
print data
輸出如下所示:
loadtxt()讀入檔案函式原型如下:loadtxt(fname, dtype, delimiter, converters, usecols)
其中引數fname表示檔案路徑,dtype表示資料型別,delimiter表示分隔符,converters將資料列與轉換函式進行對映的欄位,如{1:fun},usecols表示選取資料的列。
3.資料集拆分訓練集和預測集
由於Wine資料集前59個樣本全是第1類,中間71個樣本為第2類,最後48個樣本是第3類,所以需要將資料集拆分成訓練集和預測集。步驟如下:
(1)呼叫split()函式將資料集的第一列類標(Y資料)和13列特徵(X陣列)分隔開來。該函式引數包括data資料,分割位置,其中1表示從第一列分割,axis為1表示水平分割、0表示垂直分割。
(2)由於資料集第一列儲存的類標為1.0、2.0或3.0浮點型資料,需要將其轉換為整型,這裡在for迴圈中呼叫int()函式轉換,儲存至y陣列中,也可採用np.astype()實現。
(3)最後呼叫np.concatenate()函式將0-40、60-100、140-160行資料分割為訓練集,包括13列特徵和類標,其餘78行資料為測試集。
# -*- coding: utf-8 -*-
import os
import numpy as np
path = u"wine/wine.txt"
data = np.loadtxt(path,dtype=float,delimiter=",")
print data
yy, x = np.split(data, (1,), axis=1)
print yy.shape, x.shape
y = []
for n in yy:
y.append(int(n))
train_data = np.concatenate((x[0:40,:], x[60:100,:], x[140:160,:]), axis = 0) #訓練集
train_target = np.concatenate((y[0:40], y[60:100], y[140:160]), axis = 0) #樣本類別
test_data = np.concatenate((x[40:60, :], x[100:140, :], x[160:,:]), axis = 0) #測試集
test_target = np.concatenate((y[40:60], y[100:140], y[160:]), axis = 0) #樣本類別
print train_data.shape, train_target.shape
print test_data.shape, test_target.shape
輸出結果如下:
(178L, 1L)
(178L, 13L)
(100L, 1L) (100L, 13L)
(78L, 1L) (78L, 13L)
下面補充一種隨機拆分的方式,呼叫sklearn.cross_validation.train_test_split類隨機劃分訓練集與測試集。程式碼如下:
from sklearn.cross_validation import train_test_split
x, y = np.split(data, (1,), axis=1)
x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=1, train_size=0.7)
引數x表示所要劃分的樣本特徵集;y是所要劃分的樣本結果;train_size表示訓練樣本佔比,0.7表示將資料集劃分為70%的訓練集、30%的測試集;random_state是隨機數的種子。該函式在部分版本的sklearn庫中是匯入model_selection類,建議讀者下來嘗試。
四.SVM分析紅酒資料
1.分析流程
接著採用SVM分類演算法對酒類資料集Wine進行分析。其分析步驟主要包括如下六個步驟:
- 載入資料集。採用loadtxt()函式載入酒類資料集,採用逗號(,)分割。
- 劃分資料集。將Wine資料集劃分為訓練集和預測集,僅提取酒類13個特種中的兩列特徵進行資料分析。
- SVM訓練。匯入Sklearn機器學習包中svm.SVC()函式分析,呼叫fit()函式訓練模型,predict(test_data)函式預測分類結果。
- 評價演算法。通過classification_report()函式計算該分類預測結果的準確率、召回率和F值。
- 建立網格。獲取資料集中兩列特徵的最大值和最小值,並建立對應的矩陣網格,用於繪製背景圖,呼叫numpy擴充套件包的meshgrid()函式實現。
- 繪圖視覺化。設定不同類標的顏色,呼叫pcolormesh()函式繪製背景區域顏色,呼叫scatter()函式繪製實際結果的散點圖。
2.完整程式碼
# -*- coding: utf-8 -*-
import os
import numpy as np
from sklearn.svm import SVC
from sklearn import metrics
import matplotlib.pyplot as plt
from matplotlib.colors import ListedColormap
#第一步 載入資料集
path = u"wine.txt"
data = np.loadtxt(path,dtype=float,delimiter=",")
print data
#第二步 劃分資料集
yy, x = np.split(data, (1,), axis=1) #第一列為類標yy,後面13列特徵為x
print yy.shape, x.shape
y = []
for n in yy: #將類標浮點型轉化為整數
y.append(int(n))
x = x[:, :2] #獲取x前兩列資料,方便繪圖 對應x、y軸
train_data = np.concatenate((x[0:40,:], x[60:100,:], x[140:160,:]), axis = 0) #訓練集
train_target = np.concatenate((y[0:40], y[60:100], y[140:160]), axis = 0) #樣本類別
test_data = np.concatenate((x[40:60, :], x[100:140, :], x[160:,:]), axis = 0) #測試集
test_target = np.concatenate((y[40:60], y[100:140], y[160:]), axis = 0) #樣本類別
print train_data.shape, train_target.shape
print test_data.shape, test_target.shape
#第三步 SVC訓練
clf = SVC()
clf.fit(train_data,train_target)
result = clf.predict(test_data)
print result
#第四步 評價演算法
print sum(result==test_target) #預測結果與真實結果比對
print(metrics.classification_report(test_target, result)) #準確率 召回率 F值
#第五步 建立網格
x1_min, x1_max = test_data[:,0].min()-0.1, test_data[:,0].max()+0.1 #第一列
x2_min, x2_max = test_data[:,1].min()-0.1, test_data[:,1].max()+0.1 #第二列
xx, yy = np.meshgrid(np.arange(x1_min, x1_max, 0.1),
np.arange(x2_min, x2_max, 0.1)) #生成網格型資料
z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
#第六步 繪圖視覺化
cmap_light = ListedColormap(['#FFAAAA', '#AAFFAA', '#AAAAFF']) #顏色Map
cmap_bold = ListedColormap(['#000000', '#00FF00', '#FFFFFF'])
plt.figure()
z = z.reshape(xx.shape)
print xx.shape, yy.shape, z.shape, test_target.shape
plt.pcolormesh(xx, yy, z, cmap=cmap_light)
plt.scatter(test_data[:,0], test_data[:,1], c=test_target,
cmap=cmap_bold, s=50)
plt.show()
程式碼提取了178行資料的第一列作為類標,剩餘13列資料作為13個特徵的資料集,並劃分為訓練集(100行)和測試集(78行)。輸出結果如下,包括78行SVM分類預測的類標結果,其中61行資料類標與真實的結果一致,其準確率為0.78,召回率為0.78,F1特徵為0.78,最後視覺化繪圖輸出。
繪製的圖形如下所示:
五.程式碼優化
前面SVM分析紅酒資料集的程式碼存在兩個缺點,一是採用固定的組合方式劃分的資料集,即呼叫np.concatenate()函式將0-40、60-100、140-160行資料分割為訓練集,其餘為預測集;二是隻提取了資料集中的兩列特徵進行SVM分析和視覺化繪圖,即呼叫“x = x[:, :2]”獲取前兩列特徵,而紅酒資料集共有13列特徵。
真實的資料分析中通常會隨機劃分資料集,分析過程也是對所有的特徵進行訓練及預測操作,再經過降維處理之後進行視覺化繪圖展示。下面對SVM分析紅酒資料集例項進行簡單的程式碼優化,主要包括:
- 隨機劃分紅酒資料集
- 對資料集的所有特徵進行訓練和預測分析
- 採用PCA演算法降維後再進行視覺化繪圖操作
完整程式碼如下,希望讀者也認真學習該部分知識,更好地優化自己的研究或課題。
# -*- coding: utf-8 -*-
import os
import numpy as np
from sklearn.svm import SVC
from sklearn import metrics
import matplotlib.pyplot as plt
from matplotlib.colors import ListedColormap
from sklearn.cross_validation import train_test_split
from sklearn.decomposition import PCA
#第一步 載入資料集
path = u"wine/wine.txt"
data = np.loadtxt(path,dtype=float,delimiter=",")
print data
#第二步 劃分資料集
yy, x = np.split(data, (1,), axis=1) #第一列類標yy,後面13列特徵為x
print yy.shape, x.shape
y = []
for n in yy:
y.append(int(n))
y = np.array(y, dtype = int) #list轉換陣列
#劃分資料集 測試集40%
train_data, test_data, train_target, test_target = train_test_split(x, y, test_size=0.4, random_state=42)
print train_data.shape, train_target.shape
print test_data.shape, test_target.shape
#第三步 SVC訓練
clf = SVC()
clf.fit(train_data, train_target)
result = clf.predict(test_data)
print result
print test_target
#第四步 評價演算法
print sum(result==test_target) #預測結果與真實結果比對
print(metrics.classification_report(test_target, result)) #準確率 召回率 F值
#第五步 降維操作
pca = PCA(n_components=2)
newData = pca.fit_transform(test_data)
#第六步 繪圖視覺化
plt.figure()
cmap_bold = ListedColormap(['#000000', '#00FF00', '#FFFFFF'])
plt.scatter(newData[:,0], newData[:,1], c=test_target, cmap=cmap_bold, s=50)
plt.show()
輸出結果如下所示,其準確率、召回率和F值很低,僅為50%、39%和23%。上述程式碼如下采用決策樹進行分析,則其準確率、召回率和F值就很高,結果如下所示。所以並不是每種分析演算法都適應所有的資料集,不同資料集其特徵不同,最佳分析的算也會不同,我們在進行資料分析時,通常會對比多種分析演算法,再優化自己的實驗和模型。
這是2019年的第一篇文章,基礎性文章,希望對大家有所幫助,不喜勿噴。同時,寒假已開始了自己奮鬥學習之路,希望一個月的時間能堅持把英語、專業課鞏固上來。考博之路很艱辛,且努力且珍惜。你我一起加油,也希望讀者給我投一票吧。我是59號,Eastmount,楊秀璋。
投票地址:https://bss.csdn.net/m/topic/blog_star2018/index
(By:Eastmount 2019-01-16 中午12點 http://blog.csdn.net/eastmount/ )
相關文章
- 【python資料探勘課程】二十六.基於SnowNLP的豆瓣評論情感分析Python
- 【python資料探勘課程】二十四.KMeans文字聚類分析互動百科語料Python聚類
- 《資料分析與資料探勘》--天津大學公開課
- 資料探勘——SVM(乳腺癌檢測)
- 萌新向Python資料分析及資料探勘 前言Python
- 【python資料探勘課程】二十五.Matplotlib繪製帶主題及聚類類標的散點圖Python聚類
- Python資料探勘入門與實踐---使用scikit-learn 估計器分類Python
- 資料探勘—邏輯迴歸分類—信用卡欺詐分析邏輯迴歸
- 資料探勘的過程有哪些
- 【python資料探勘課程】二十三.時間序列金融資料預測及Pandas庫詳解Python
- 淺談大資料、資料分析、資料探勘的區別!大資料
- Python有哪些資料探勘工具?五大類Python
- 資料探勘-層次聚類聚類
- 《資料探勘導論》實驗課——實驗四、資料探勘之KNN,Naive BayesKNNAI
- 基於python的大資料分析-資料處理(程式碼實戰)Python大資料
- 基於python的大資料分析實戰學習筆記-pandas(資料分析包)Python大資料筆記
- 資料探勘和資料提取該怎麼區分?
- Python——各種方法的使用(儘量每天更新)——from(資料探勘課)Python
- 資料探勘之 層次聚類聚類
- 資料探勘——KNN演算法(手寫數字分類)KNN演算法
- 基於python的大資料分析-pandas資料儲存(程式碼實戰)Python大資料
- 基於python的大資料分析-pandas資料讀取(程式碼實戰)Python大資料
- Yahoo前任資料官:資料探勘與分析技巧(下)IF
- 資料分析與資料探勘 - 04科學計算
- 資料探勘與資料分析的主要區別是什麼
- 基於WOA-SVM的乳腺癌資料分類識別演算法matlab模擬,對比BP神經網路和SVM演算法Matlab神經網路
- 基於PSO-SVM的乳腺癌資料分類識別演算法matlab模擬,對比BP神經網路和SVM演算法Matlab神經網路
- 資料探勘概念與技術 - chapter 8 - 分類:基本概念APT
- 大資料時代,如何做資料探勘與分析!大資料
- 資料治理與資料分類分級!
- 基於 Spark 的資料分析實踐Spark
- logminer進行資料探勘分析測試
- Python資料分析基礎: 資料缺失值處理Python
- 【Python資料分析基礎】: 資料缺失值處理Python
- 【Mark Schmidt課件】機器學習與資料探勘——MLE與MAP機器學習
- 用Python實現一個SVM分類器策略Python
- Python遙感影像疊加分析:基於一景資料提取另一資料Python
- python 資料探勘演算法簡要Python演算法