一文讀懂層次聚類(Python程式碼)

東哥起飛發表於2021-11-22

大家好,我是東哥。

本篇想和大家介紹下層次聚類,先通過一個簡單的例子介紹它的基本理論,然後再用一個實戰案例Python程式碼實現聚類效果。

首先要說,聚類屬於機器學習的無監督學習,而且也分很多種方法,比如大家熟知的有K-means。層次聚類也是聚類中的一種,也很常用。下面我先簡單回顧一下K-means的基本原理,然後慢慢引出層次聚類的定義和分層步驟,這樣更有助於大家理解。

層次聚類和K-means有什麼不同?

K-means 工作原理可以簡要概述為:

  • 決定簇數(k)
  • 從資料中隨機選取 k 個點作為質心
  • 將所有點分配到最近的聚類質心
  • 計算新形成的簇的質心
  • 重複步驟 3 和 4

這是一個迭代過程,直到新形成的簇的質心不變,或者達到最大迭代次數。

但是 K-means 是存在一些缺點的,我們必須在演算法開始前就決定簇數 K 的數量,但實際我們並不知道應該有多少個簇,所以一般都是根據自己的理解先設定一個值,這就可能導致我們的理解和實際情況存在一些偏差。

層次聚類完全不同,它不需要我們開始的時候指定簇數,而是先完整的形成整個層次聚類後,通過決定合適的距離,自動就可以找到對應的簇數和聚類。

什麼是層次聚類?

下面我們由淺及深的介紹什麼是層次聚類,先來一個簡單的例子。

假設我們有以下幾點,我們想將它們分組:

我們可以將這些點中的每一個分配給一個單獨的簇,就是4個簇(4種顏色):

然後基於這些簇的相似性(距離),將最相似的(距離最近的)點組合在一起並重復這個過程,直到只剩下一個叢集:

上面本質上就是在構建一個層次結構。先了解到這裡,後面我們詳細介紹它的分層步驟。

層次聚類的型別

主要有兩種型別的層次聚類:

  • 凝聚層次聚類
  • 分裂層次聚類

凝聚層次聚類

先讓所有點分別成為一個單獨的簇,然後通過相似性不斷組合,直到最後只有一個簇為止,這就是凝聚層次聚類的過程,和我們上面剛剛說的一致。

分裂層次聚類

分裂層次聚類正好反過來,它是從單個叢集開始逐步分裂,直到無法分裂,即每個點都是一個簇。

所以無論是 10、100、1000 個資料點都不重要,這些點在開始的時候都屬於同一個簇:

現在,在每次迭代中拆分簇中相隔最遠的兩點,並重復這個過程,直到每個簇只包含一個點:

上面的過程就是分裂層次聚類

執行層次聚類的步驟

上面已經說了層次聚類的大概過程,那關鍵的來了,如何確定點和點的相似性呢?

這是聚類中最重要的問題之一了,一般計算相似度的方法是:計算這些簇的質心之間的距離。距離最小的點稱為相似點,我們可以合併它們,也可以將其稱為基於距離的演算法

另外在層次聚類中,還有一個稱為鄰近矩陣的概念,它儲存了每個點之間的距離。下面我們通過一個例子來理解如何計算相似度、鄰近矩陣、以及層次聚類的具體步驟。

案例介紹

假設一位老師想要將學生分成不同的組。現在有每個學生在作業中的分數,想根據這些分數將他們分成幾組。關於擁有多少組,這裡沒有固定的目標。由於老師不知道應該將哪種型別的學生分配到哪個組,因此不能作為監督學習問題來解決。下面,我們將嘗試應用層次聚類將學生分成不同的組。

下面是個5名學生的成績:

建立鄰近矩陣

首先,我們要建立一個鄰近矩陣,它儲存了每個點兩兩之間的距離,因此可以得到一個形狀為 n X n 的方陣。

這個案例中,可以得到以下 5 x 5 的鄰近矩陣:

矩陣裡有兩點需要注意下:

  • 矩陣的對角元素始終為 0,因為點與其自身的距離始終為 0
  • 使用歐幾里得距離公式來計算非對角元素的距離

比如,我們要計算點 1 和 2 之間的距離,計算公式為:

$$ \sqrt{(10-7)^2}=\sqrt{9}=3 $$

同理,按此計算方法完成後填充鄰近矩陣其餘元素。

執行層次聚類

這裡使用凝聚層次聚類來實現。

步驟 1: 首先,我們將所有點分配成單個簇:

這裡不同的顏色代表不同的簇,我們資料中的 5 個點,即有 5 個不同的簇。

步驟2: 接下來,我們需要查詢鄰近矩陣中的最小距離併合並距離最小的點。然後我們更新鄰近矩陣:

最小距離是 3,因此我們將合併點 1 和 2:

讓我們看看更新的叢集並相應地更新鄰近矩陣:

更新之後,我們取了1、2 兩個點中值 (7, 10) 最大的來替換這個簇的值。當然除了最大值之外,我們還可以取最小值或平均值。然後,我們將再次計算這些簇的鄰近矩陣:

第 3 步: 重複第 2 步,直到只剩下一個簇。

重複所有的步驟後,我們將得到如下所示的合併的聚類:

這就是凝聚層次聚類的工作原理。但問題是我們仍然不知道該分幾組?是2、3、還是4組呢?

下面開始介紹如何選擇聚類數。

如何選擇聚類數?

為了獲得層次聚類的簇數,我們使用了一個概念,叫作樹狀圖

通過樹狀圖,我們可以更方便的選出聚類的簇數。

回到上面的例子。當我們合併兩個簇時,樹狀圖會相應地記錄這些簇之間的距離並以圖形形式表示。下面這個是樹狀圖的原始狀態,橫座標記錄了每個點的標記,縱軸記錄了點和點之間的距離:

當合並兩個簇時,將會在樹狀圖中連線起來,連線的高度就是點之間的距離。下面是我們剛剛層次聚類的過程。

然後開始對上面的過程進行樹狀圖的繪製。從合併樣本 1 和 2 開始,這兩個樣本之間的距離為 3。

可以看到已經合併了 1 和 2。垂直線代表 1 和 2 的距離。同理,按照層次聚類過程繪製合併簇類的所有步驟,最後得到了這樣的樹狀圖:

通過樹狀圖,我們可以清楚地形象化層次聚類的步驟。樹狀圖中垂直線的距離越遠代表簇之間的距離越大。

有了這個樹狀圖,我們決定簇類數就方便多了。

現在我們可以設定一個閾值距離,繪製一條水平線。比如我們將閾值設定為 12,並繪製一條水平線,如下:

從交點中可以看到,聚類的數量就是與閾值水平線與垂直線相交的數量(紅線與 2 條垂直線相交,我們將有 2 個簇)。與橫座標相對應的,一個簇將有一個樣本集合為 (1,2,4),另一個叢集將有一個樣本集合 (3,5)。

這樣,我們就通過樹狀圖解決了分層聚類中要決定聚類的數量。

Python程式碼實戰案例

上面是理論基礎,有點數學基礎都能看懂。下面介紹下在如何用程式碼Python來實現這一過程。這裡拿一個客戶細分的資料來展示一下。

資料集和程式碼在這裡:

https://github.com/xiaoyusmd/...

分享不易,覺得有幫助還請給個star!

這個資料來源於UCI 機器學習庫。我們的目的是根據批發分銷商的客戶在不同產品類別(如牛奶、雜貨、地區等)上的年度支出,對他們進行細分。

首先對資料進行一個標準化,為了讓所有資料在同一個維度便於計算,然後應用層次聚類來細分客戶。

from sklearn.preprocessing import normalize
data_scaled = normalize(data)
data_scaled = pd.DataFrame(data_scaled, columns=data.columns)

import scipy.cluster.hierarchy as shc
plt.figure(figsize=(10, 7))  
plt.title("Dendrograms")  
dend = shc.dendrogram(shc.linkage(data_scaled, method='ward'))

x 軸包含了所有樣本,y 軸代表這些樣本之間的距離。距離最大的垂直線是藍線,假如我們決定要以閾值 6 切割樹狀圖:

plt.figure(figsize=(10, 7))  
plt.title("Dendrograms")  
dend = shc.dendrogram(shc.linkage(data_scaled, method='ward'))
plt.axhline(y=6, color='r', linestyle='--')

現在我們有兩個簇了,我們要對這 2 個簇應用層次聚類:

from sklearn.cluster import AgglomerativeClustering
cluster = AgglomerativeClustering(n_clusters=2, affinity='euclidean', linkage='ward')  
cluster.fit_predict(data_scaled)

由於我們定義了 2 個簇,因此我們可以在輸出中看到 0 和 1 的值。0 代表屬於第一個簇的點,1 代表屬於第二個簇的點。

plt.figure(figsize=(10, 7))  
plt.scatter(data_scaled['Milk'], data_scaled['Grocery'], c=cluster.labels_) 

到這裡我們就成功的完成了聚類。

參考:https://www.analyticsvidhya.c...

原創不易,覺得不錯點個贊。

另外,歡迎關注我的原創公眾號:Python資料科學

相關文章