4.1、摘要
在前面的文章中,介紹了三種常見的分類演算法。分類作為一種監督學習方法,要求必須事先明確知道各個類別的資訊,並且斷言所有待分類項都有一個類別與之對應。但是很多時候上述條件得不到滿足,尤其是在處理海量資料的時候,如果通過預處理使得資料滿足分類演算法的要求,則代價非常大,這時候可以考慮使用聚類演算法。聚類屬於無監督學習,相比於分類,聚類不依賴預定義的類和類標號的訓練例項。本文首先介紹聚類的基礎——距離與相異度,然後介紹一種常見的聚類演算法——k均值和k中心點聚類,最後會舉一個例項:應用聚類方法試圖解決一個在體育界大家頗具爭議的問題——中國男足近幾年在亞洲到底處於幾流水平。
4.2、相異度計算
在正式討論聚類前,我們要先弄清楚一個問題:如何定量計算兩個可比較元素間的相異度。用通俗的話說,相異度就是兩個東西差別有多大,例如人類與章魚的相異度明顯大於人類與黑猩猩的相異度,這是能我們直觀感受到的。但是,計算機沒有這種直觀感受能力,我們必須對相異度在數學上進行定量定義。
設,其中X,Y是兩個元素項,各自具有n個可度量特徵屬性,那麼X和Y的相異度定義為:,其中R為實數域。也就是說相異度是兩個元素對實數域的一個對映,所對映的實數定量表示兩個元素的相異度。
下面介紹不同型別變數相異度計算方法。
4.2.1、標量
標量也就是無方向意義的數字,也叫標度變數。現在先考慮元素的所有特徵屬性都是標量的情況。例如,計算X={2,1,102}和Y={1,3,2}的相異度。一種很自然的想法是用兩者的歐幾里得距離來作為相異度,歐幾里得距離的定義如下:
其意義就是兩個元素在歐氏空間中的集合距離,因為其直觀易懂且可解釋性強,被廣泛用於標識兩個標量元素的相異度。將上面兩個示例資料代入公式,可得兩者的歐氏距離為:
除歐氏距離外,常用作度量標量相異度的還有曼哈頓距離和閔可夫斯基距離,兩者定義如下:
曼哈頓距離:
閔可夫斯基距離:
歐氏距離和曼哈頓距離可以看做是閔可夫斯基距離在p=2和p=1下的特例。另外這三種距離都可以加權,這個很容易理解,不再贅述。
下面要說一下標量的規格化問題。上面這樣計算相異度的方式有一點問題,就是取值範圍大的屬性對距離的影響高於取值範圍小的屬性。例如上述例子中第三個屬性的取值跨度遠大於前兩個,這樣不利於真實反映真實的相異度,為了解決這個問題,一般要對屬性值進行規格化。所謂規格化就是將各個屬性值按比例對映到相同的取值區間,這樣是為了平衡各個屬性對距離的影響。通常將各個屬性均對映到[0,1]區間,對映公式為:
其中max(ai)和min(ai)表示所有元素項中第i個屬性的最大值和最小值。例如,將示例中的元素規格化到[0,1]區間後,就變成了X’={1,0,1},Y’={0,1,0},重新計算歐氏距離約為1.732。
4.2.2、二元變數
所謂二元變數是隻能取0和1兩種值變數,有點類似布林值,通常用來標識是或不是這種二值屬性。對於二元變數,上一節提到的距離不能很好標識其相異度,我們需要一種更適合的標識。一種常用的方法是用元素相同序位同值屬性的比例來標識其相異度。
設有X={1,0,0,0,1,0,1,1},Y={0,0,0,1,1,1,1,1},可以看到,兩個元素第2、3、5、7和8個屬性取值相同,而第1、4和6個取值不同,那麼相異度可以標識為3/8=0.375。一般的,對於二元變數,相異度可用“取值不同的同位屬性數/單個元素的屬性位數”標識。
上面所說的相異度應該叫做對稱二元相異度。現實中還有一種情況,就是我們只關心兩者都取1的情況,而認為兩者都取0的屬性並不意味著兩者更相似。例如在根據病情對病人聚類時,如果兩個人都患有肺癌,我們認為兩個人增強了相似度,但如果兩個人都沒患肺癌,並不覺得這加強了兩人的相似性,在這種情況下,改用“取值不同的同位屬性數/(單個元素的屬性位數-同取0的位數)”來標識相異度,這叫做非對稱二元相異度。如果用1減去非對稱二元相異度,則得到非對稱二元相似度,也叫Jaccard係數,是一個非常重要的概念。
4.2.3、分類變數
分類變數是二元變數的推廣,類似於程式中的列舉變數,但各個值沒有數字或序數意義,如顏色、民族等等,對於分類變數,用“取值不同的同位屬性數/單個元素的全部屬性數”來標識其相異度。
4.2.4、序數變數
序數變數是具有序數意義的分類變數,通常可以按照一定順序意義排列,如冠軍、亞軍和季軍。對於序數變數,一般為每個值分配一個數,叫做這個值的秩,然後以秩代替原值當做標量屬性計算相異度。
4.2.5、向量
對於向量,由於它不僅有大小而且有方向,所以閔可夫斯基距離不是度量其相異度的好辦法,一種流行的做法是用兩個向量的餘弦度量,其度量公式為:
其中||X||表示X的歐幾里得範數。要注意,餘弦度量度量的不是兩者的相異度,而是相似度!
4.3、聚類問題
在討論完了相異度計算的問題,就可以正式定義聚類問題了。
所謂聚類問題,就是給定一個元素集合D,其中每個元素具有n個可觀察屬性,使用某種演算法將D劃分成k個子集,要求每個子集內部的元素之間相異度儘可能低,而不同子集的元素相異度儘可能高。其中每個子集叫做一個簇。
與分類不同,分類是示例式學習,要求分類前明確各個類別,並斷言每個元素對映到一個類別,而聚類是觀察式學習,在聚類前可以不知道類別甚至不給定類別數量,是無監督學習的一種。目前聚類廣泛應用於統計學、生物學、資料庫技術和市場營銷等領域,相應的演算法也非常的多。本文僅介紹一種最簡單的聚類演算法——k均值(k-means)演算法。
4.4、K-means演算法及其示例
k均值演算法的計算過程非常直觀:
1、從D中隨機取k個元素,作為k個簇的各自的中心。
2、分別計算剩下的元素到k個簇中心的相異度,將這些元素分別劃歸到相異度最低的簇。
3、根據聚類結果,重新計算k個簇各自的中心,計算方法是取簇中所有元素各自維度的算術平均數。
4、將D中全部元素按照新的中心重新聚類。
5、重複第4步,直到聚類結果不再變化。
6、將結果輸出。
由於演算法比較直觀,沒有什麼可以過多講解的。下面,我們來看看k-means演算法一個有趣的應用示例:中國男足近幾年到底在亞洲處於幾流水平?
今年中國男足可算是杯具到家了,幾乎到了過街老鼠人人喊打的地步。對於目前中國男足在亞洲的地位,各方也是各執一詞,有人說中國男足亞洲二流,有人說三流,還有人說根本不入流,更有人說其實不比日韓差多少,是亞洲一流。既然爭論不能解決問題,我們就讓資料告訴我們結果吧。
下圖是我採集的亞洲15只球隊在2005年-2010年間大型盃賽的戰績(由於澳大利亞是後來加入亞足聯的,所以這裡沒有收錄)。
其中包括兩次世界盃和一次亞洲盃。我提前對資料做了如下預處理:對於世界盃,進入決賽圈則取其最終排名,沒有進入決賽圈的,打入預選賽十強賽賦予40,預選賽小組未出線的賦予50。對於亞洲盃,前四名取其排名,八強賦予5,十六強賦予9,預選賽沒出現的賦予17。這樣做是為了使得所有資料變為標量,便於後續聚類。
下面先對資料進行[0,1]規格化,下面是規格化後的資料:
接著用k-means演算法進行聚類。設k=3,即將這15支球隊分成三個集團。
現抽取日本、巴林和泰國的值作為三個簇的種子,即初始化三個簇的中心為A:{0.3, 0, 0.19},B:{0.7, 0.76, 0.5}和C:{1, 1, 0.5}。下面,計算所有球隊分別對三個中心點的相異度,這裡以歐氏距離度量。下面是我用程式求取的結果:
從做到右依次表示各支球隊到當前中心點的歐氏距離,將每支球隊分到最近的簇,可對各支球隊做如下聚類:
中國C,日本A,韓國A,伊朗A,沙特A,伊拉克C,卡達C,阿聯酋C,烏茲別克B,泰國C,越南C,阿曼C,巴林B,朝鮮B,印尼C。
第一次聚類結果:
A:日本,韓國,伊朗,沙特;
B:烏茲別克,巴林,朝鮮;
C:中國,伊拉克,卡達,阿聯酋,泰國,越南,阿曼,印尼。
下面根據第一次聚類結果,調整各個簇的中心點。
A簇的新中心點為:{(0.3+0+0.24+0.3)/4=0.21, (0+0.15+0.76+0.76)/4=0.4175, (0.19+0.13+0.25+0.06)/4=0.1575} = {0.21, 0.4175, 0.1575}
用同樣的方法計算得到B和C簇的新中心點分別為{0.7, 0.7333, 0.4167},{1, 0.94, 0.40625}。
用調整後的中心點再次進行聚類,得到:
第二次迭代後的結果為:
中國C,日本A,韓國A,伊朗A,沙特A,伊拉克C,卡達C,阿聯酋C,烏茲別克B,泰國C,越南C,阿曼C,巴林B,朝鮮B,印尼C。
結果無變化,說明結果已收斂,於是給出最終聚類結果:
亞洲一流:日本,韓國,伊朗,沙特
亞洲二流:烏茲別克,巴林,朝鮮
亞洲三流:中國,伊拉克,卡達,阿聯酋,泰國,越南,阿曼,印尼
看來資料告訴我們,說國足近幾年處在亞洲三流水平真的是沒有冤枉他們,至少從國際盃賽戰績是這樣的。
其實上面的分析資料不僅告訴了我們聚類資訊,還提供了一些其它有趣的資訊,例如從中可以定量分析出各個球隊之間的差距,例如,在亞洲一流隊伍中,日本與沙特水平最接近,而伊朗則相距他們較遠,這也和近幾年伊朗沒落的實際相符。另外,烏茲別克和巴林雖然沒有打進近兩屆世界盃,不過憑藉預算賽和亞洲盃上的出色表現佔據B組一席之地,而朝鮮由於打入了2010世界盃決賽圈而有幸進入B組,可是同樣奇蹟般奪得2007年亞洲盃的伊拉克卻被分在三流,看來亞洲盃冠軍的分量還不如打進世界盃決賽圈重啊。其它有趣的資訊,有興趣的朋友可以進一步挖掘。