機器學習——KMeans

抿嘴脣發表於2018-10-17

匯入類庫

1 from sklearn.cluster import KMeans
2 from sklearn.datasets import make_blobs
3 import numpy as np
4 import matplotlib.pyplot as plt

  KMeans演算法的過程:(假如有兩類)

  1. 隨機選擇兩個點作為聚類的中心
  2. 計算所有點距離兩個中心的距離,選擇距離較近的點作為類別。(例如:距離藍點近,類別是藍色)
  3. 計算已經分好類的各組資料的平均值,使用各組資料的平均值中心作為新的中心
  4. 以新的中心為依據跳轉至第2步
  5. 直到收斂(兩次迭代的數值沒有明顯的變化:新中心點距離上一次中心點的距離小於某個閾值,例如:0.03)

程式碼

 1 plt.figure(figsize=(6, 3))
 2 n_samples = 1500
 3 random_state = 170
 4 ```
 5 make_blobs聚類資料生成器:用來生成聚類演算法的測試資料
 6 n_samples:待生成的樣本的總數
 7 n_features:每個樣本的特徵數
 8 centers:類別數
 9 cluster_std:每個類別的方差,放在列表中
10 ```
11 X, y = make_blobs(n_samples=n_samples, random_state=random_state)
12 ```
13 KMeans是結果受初始值影響的區域性最優的迭代演算法
14 n_clusters:K值,類別數
15 max_iter:最大迭代次數,凸資料集可忽略該值,非凸資料集可能很難收斂,可指定最大迭代次數讓演算法可以及時推出迴圈
16 n_init:用不同的初始化質心執行演算法的次數,預設是10,K值較大時,可適當增大該值
17 init:初始值選擇的方式,預設為k-means++
18 algorithm:auto、full、elkan;auto自動選擇,資料值稀疏時選擇full,資料稠密時選擇elkan
19 ```
20 y_pred = KMeans(n_clusters=2, random_state=random_state).fit_predict(X)
21 
22 # print(X[:, 0])
23 # print(y)
24 # for i in y_pred:
25 #     print(i)
26 
27 # 根據顏色畫出散點圖
28 plt.subplot(121)
29 plt.scatter(X[:, 0], X[:, 1], c=y_pred)
30 plt.subplot(122)
31 plt.scatter(X[:, 0], X[:, 1], c=y)
32 plt.show()

 

相關文章