統計學習筆記(3)——k近鄰法與kd樹
在使用k近鄰法進行分類時,對新的例項,根據其k個最近鄰的訓練例項的類別,通過多數表決的方式進行預測。由於k近鄰模型的特徵空間一般是n維實數向量,所以距離的計算通常採用的是歐式距離。關鍵的是k值的選取,如果k值太小就意味著整體模型變得複雜,容易發生過擬合,即如果鄰近的例項點恰巧是噪聲,預測就會出錯,極端的情況是k=1,稱為最近鄰演算法,對於待預測點x,與x最近的點決定了x的類別。k值得增大意味著整體的模型變得簡單,極端的情況是k=N,那麼無論輸入例項是什麼,都簡單地預測它屬於訓練集中最多的類,這樣的模型過於簡單。經驗是,k值一般去一個比較小的值,通常採取交叉驗證的方法來選取最優的k值。
實現k近鄰法時,主要考慮的問題是如何對訓練資料進行快速k近鄰搜尋,這點在特徵空間的維數大以及訓練資料容量大時尤其重要。k近鄰法的最簡單實現是線性掃描,這時要計算輸入例項與每一個訓練例項的距離,當訓練集很大時,計算非常耗時,這種方法是不可行的。為了提高k近鄰搜尋的效率,可以考慮使用特殊的結構儲存訓練資料,以減少計算距離的次數。具體方法有很多,這裡介紹kd樹方法。
1.例項
先以一個簡單直觀的例項來介紹k-d樹演算法。假設有6個二維資料點{(2,3),(5,4),(9,6),(4,7),(8,1),(7,2)},資料點位於二維空間內(如圖2中黑點所示)。k-d樹演算法就是要確定圖2中這些分割空間的分割線(多維空間即為分割平面,一般為超平面)。下面就要通過一步步展示k-d樹是如何確定這些分割線的。
k-d樹演算法可以分為兩大部分,一部分是有關k-d樹本身這種資料結構建立的演算法,另一部分是在建立的k-d樹上如何進行最鄰近查詢的演算法。
2.構造kd樹
kd樹是一種對k維空間中的例項點進行儲存以便對其進行快速搜尋的樹形資料結構。kd樹是二叉樹,表示對k維空間的一個劃分。構造kd樹相當於不斷地用垂直於座標軸的超平面將k維空間進行切分,構成一系列的k維超矩形區域。kd樹的每一個節點對應於一個k維超矩形區域。k-d樹是一個二叉樹,每個節點表示一個空間範圍。下表給出的是k-d樹每個節點中主要包含的資料結構。
從上面對k-d樹節點的資料型別的描述可以看出構建k-d樹是一個逐級展開的遞迴過程。下面給出的是構建k-d樹的偽碼。
- 演算法:構建k-d樹(createKDTree)
- 輸入:資料點集Data-set和其所在的空間Range
- 輸出:Kd,型別為k-d tree
- 1.If Data-set為空,則返回空的k-d tree
- 2.呼叫節點生成程式:
- (1)確定split域:對於所有描述子資料(特徵向量),統計它們在每個維上的資料方差。假設每條資料記錄為64維,可計算64個方差。挑選出最大值,對應的維就是split域的值。資料方差大表明沿該座標軸方向上的資料分散得比較開,在這個方向上進行資料分割有較好的解析度;
- (2)確定Node-data域:資料點集Data-set按其第split域的值排序。位於正中間的那個資料點被選為Node-data。此時新的Data-set' = Data-set \ Node-data(除去其中Node-data這一點)。
- 3.dataleft = {d屬於Data-set' && d[split] ≤ Node-data[split]}
- Left_Range = {Range && dataleft}
- dataright = {d屬於Data-set' && d[split] > Node-data[split]}
- Right_Range = {Range && dataright}
- 4.left = 由(dataleft,Left_Range)建立的k-d tree,即遞迴呼叫createKDTree(dataleft,Left_Range)。並設定left的parent域為Kd;
- right = 由(dataright,Right_Range)建立的k-d tree,即呼叫createKDTree(dataleft,Left_Range)。並設定right的parent域為Kd。
以上述舉的例項來看,過程如下:
由於此例簡單,資料維度只有2維,所以可以簡單地給x,y兩個方向軸編號為0,1,也即split={0,1}。
(1)確定split域的首先該取的值。分別計算x,y方向上資料的方差得知x方向上的方差最大,所以split域值首先取0,也就是x軸方向;
(2)確定Node-data的域值。根據x軸方向的值2,5,9,4,8,7排序選出中值為7,所以Node-data = (7,2)。這樣,該節點的分割超平面就是通過(7,2)並垂直於split = 0(x軸)的直線x = 7;
(3)確定左子空間和右子空間。分割超平面x = 7將整個空間分為兩部分,如下圖所示。x <= 7的部分為左子空間,包含3個節點{(2,3),(5,4),(4,7)};另一部分為右子空間,包含2個節點{(9,6),(8,1)}。
如演算法所述,k-d樹的構建是一個遞迴的過程。然後對左子空間和右子空間內的資料重複根節點的過程就可以得到下一級子節點(5,4)和(9,6)(也就是左右子空間的'根'節點),同時將空間和資料集進一步細分。如此反覆直到空間中只包含一個資料點,如下圖所示。最後生成的k-d樹如下圖所示。
3.搜尋kd樹
在k-d樹中進行資料的查詢也是特徵匹配的重要環節,其目的是檢索在k-d樹中與查詢點距離最近的資料點。這裡先以一個簡單的例項來描述最鄰近查詢的基本思路。
星號表示要查詢的點(2.1,3.1)。通過二叉搜尋,順著搜尋路徑很快就能找到最鄰近的近似點,也就是葉子節點(2,3)。而找到的葉子節點並不一定就是最鄰近的,最鄰近肯定距離查詢點更近,應該位於以查詢點為圓心且通過葉子節點的圓域內。為了找到真正的最近鄰,還需要進行'回溯'操作:演算法沿搜尋路徑反向查詢是否有距離查詢點更近的資料點。此例中先從(7,2)點開始進行二叉查詢,然後到達(5,4),最後到達(2,3),此時搜尋路徑中的節點為小於(7,2)和(5,4),大於(2,3),首先以(2,3)作為當前最近鄰點,計算其到查詢點(2.1,3.1)的距離為0.1414,然後回溯到其父節點(5,4),並判斷在該父節點的其他子節點空間中是否有距離查詢點更近的資料點。以(2.1,3.1)為圓心,以0.1414為半徑畫圓,如下圖所示。發現該圓並不和超平面y = 4交割,因此不用進入(5,4)節點右子空間中去搜尋。
再回溯到(7,2),以(2.1,3.1)為圓心,以0.1414為半徑的圓更不會與x = 7超平面交割,因此不用進入(7,2)右子空間進行查詢。至此,搜尋路徑中的節點已經全部回溯完,結束整個搜尋,返回最近鄰點(2,3),最近距離為0.1414。
一個複雜點了例子如查詢點為(2,4.5)。同樣先進行二叉查詢,先從(7,2)查詢到(5,4)節點,在進行查詢時是由y = 4為分割超平面的,由於查詢點為y值為4.5,因此進入右子空間查詢到(4,7),形成搜尋路徑<(7,2),(5,4),(4,7)>,取(4,7)為當前最近鄰點,計算其與目標查詢點的距離為3.202。然後回溯到(5,4),計算其與查詢點之間的距離為3.041。以(2,4.5)為圓心,以3.041為半徑作圓,如下圖左所示。可見該圓和y = 4超平面交割,所以需要進入(5,4)左子空間進行查詢。此時需將(2,3)節點加入搜尋路徑中得<(7,2),(2,3)>。回溯至(2,3)葉子節點,(2,3)距離(2,4.5)比(5,4)要近,所以最近鄰點更新為(2,3),最近距離更新為1.5。回溯至(7,2),以(2,4.5)為圓心1.5為半徑作圓,並不和x = 7分割超平面交割,如下圖右所示。至此,搜尋路徑回溯完。返回最近鄰點(2,3),最近距離1.5。k-d樹查詢演算法的虛擬碼如下所示。
- 演算法:k-d樹最鄰近查詢
- 輸入:Kd, //k-d tree型別
- target //查詢資料點
- 輸出:nearest, //最鄰近資料點
- dist //最鄰近資料點和查詢點間的距離
- 1. If Kd為NULL,則設dist為infinite並返回
- 2. //進行二叉查詢,生成搜尋路徑
- Kd_point = &Kd; //Kd-point中儲存k-d tree根節點地址
- nearest = Kd_point -> Node-data; //初始化最近鄰點
- while(Kd_point)
- push(Kd_point)到search_path中; //search_path是一個堆疊結構,儲存著搜尋路徑節點指標
- /*** If Dist(nearest,target) > Dist(Kd_point -> Node-data,target)
- nearest = Kd_point -> Node-data; //更新最近鄰點
- Max_dist = Dist(Kd_point,target); //更新最近鄰點與查詢點間的距離 ***/
- s = Kd_point -> split; //確定待分割的方向
- If target[s] <= Kd_point -> Node-data[s] //進行二叉查詢
- Kd_point = Kd_point -> left;
- else
- Kd_point = Kd_point ->right;
- nearest = search_path中最後一個葉子節點; //注意:二叉搜尋時不比計算選擇搜尋路徑中的最鄰近點,這部分已被註釋
- Max_dist = Dist(nearest,target); //直接取最後葉子節點作為回溯前的初始最近鄰點
- 3. //回溯查詢
- while(search_path != NULL)
- back_point = 從search_path取出一個節點指標; //從search_path堆疊彈棧
- s = back_point -> split; //確定分割方向
- If Dist(target[s],back_point -> Node-data[s]) < Max_dist //判斷還需進入的子空間
- If target[s] <= back_point -> Node-data[s]
- Kd_point = back_point -> right; //如果target位於左子空間,就應進入右子空間
- else
- Kd_point = back_point -> left; //如果target位於右子空間,就應進入左子空間
- 將Kd_point壓入search_path堆疊;
- If Dist(nearest,target) > Dist(Kd_Point -> Node-data,target)
- nearest = Kd_point -> Node-data; //更新最近鄰點
- Min_dist = Dist(Kd_point -> Node-data,target); //更新最近鄰點與查詢點間的距離
當維數較大時,直接利用k-d樹快速檢索的效能急劇下降。假設資料集的維數為D,一般來說要求資料的規模N滿足條件:N遠大於2的D次方,才能達到高效的搜尋。
參考:
http://www.cnblogs.com/eyeszjwang/articles/2429382.html相關文章
- k近鄰演算法的實現:kd樹演算法
- KD-Tree 學習筆記筆記
- 機器學習實戰筆記-k近鄰演算法機器學習筆記演算法
- 機器學習筆記1(K-近鄰演算法)機器學習筆記演算法
- K近鄰法(KNN)原理小結KNN
- K近鄰模型模型
- 機器學習——KNN(K近鄰)機器學習KNN
- K - 近鄰演算法演算法
- K近鄰演算法演算法
- opencv 學習之 基於K近鄰的數字識別OpenCV
- scikit-learn K近鄰法類庫使用小結
- 機器學習——K近鄰演算法機器學習演算法
- k-近鄰演算法演算法
- 學習筆記:樹與圖上的計數問題筆記
- 【系統設計】鄰近服務
- K-鄰近均值演算法演算法
- 機器學習-K近鄰演算法-KNN機器學習演算法KNN
- 學習筆記1熱力學與統計物理筆記
- 平衡樹學習筆記筆記
- 支配樹學習筆記筆記
- 平衡樹 學習筆記筆記
- 統計學習方法筆記筆記
- K近鄰演算法:機器學習萌新必學演算法演算法機器學習
- 機器學習-11-k近鄰演算法機器學習演算法
- Python:K-近鄰演算法Python演算法
- 2.1 k鄰近演算法之二演算法
- 2.1 k鄰近演算法之一演算法
- *衡樹 Treap(樹堆) 學習筆記筆記
- 伸展樹(Splay)學習筆記筆記
- 點分樹學習筆記筆記
- 「學習筆記」重修左偏樹筆記
- 線段樹學習筆記筆記
- K-近鄰演算法介紹與程式碼實現演算法
- 機器學習_K近鄰Python程式碼詳解機器學習Python
- k8s學習筆記K8S筆記
- 樹鏈剖分學習筆記筆記
- 二叉樹學習筆記二叉樹筆記
- 最小生成樹學習筆記筆記