(十一)KPCA非線性降維與核函式
一. 前言
在前文講述PCA降維演算法時提到,PCA只能處理線性資料的降維,本質上都是線性變換,並且它僅是篩選方差最大的特徵,去除特徵之間的線性相關性。對於線性不可分的資料常常效果很差。
二. KPCA演算法
KPCA演算法其實很簡單,資料在低維度空間不是線性可分的,但是在高維度空間就可以變成線性可分的了。利用這個特點,KPCA只是將原始資料通過核函式(kernel)對映到高維度空間,再利用PCA演算法進行降維,所以叫做K PCA降維。因此KPCA演算法的關鍵在於這個核函式。
假設現在有對映函式φ(不是核函式),它將資料從低維度對映到高維度。得到高維度資料後,我們還需要計算協方差矩陣,從前文可以看出,協方差矩陣每個元素都是向量的內積。對映到高維度空間後,向量維度增加,計算量大幅度增大。即便計算量不是問題,那麼這個φ應該把資料對映到多少維度呢?怎麼求這個φ呢?這些都是很困難的。但是核函式剛好可以解決這個問題,下面我們看一下什麼是核函式。
三. 核函式
1. 核函式定義
核函式K(kernel function)可以直接得到低維資料對映到高維後的內積,而忽略對映函式具體是什麼,即
K(x, y) = <φ(x), φ(y)>,其中x和y是低維的輸入向量,φ是從低維到高維的對映,<x, y>是x和y的內積。
核函式是一個非常有趣和強大的工具。 它是強大的,因為它提供了一個從線性到非線性的連線以及任何可以只表示兩個向量之間的點積的演算法。如果我們首先將我們的輸入資料對映到更高維的空間,那麼我在這個高維的空間進行操作出的效果,在原來那個空間就表現為非線性。
在KPCA中,剛好可以利用核函式的特點,反正我們的目的就是求資料在高維空間的內積而已(協方差矩陣),又何必知道怎麼對映的呢?
2. 常見核函式
核函式有很多限制要求,比如要求是連續的,對稱的,等等。這裡不做深入探討,畢竟不是數學系的,不用深入研究(恩,其實是看不懂)。下面列舉一些常用的核函式,至於怎麼選擇,恩,目前是世界性難題。
-
線性核
函式簡單,只是將2個向量求內積加上個常數,只能解決線性可分問題,如果我們將線性核函式應用在KPCA中,我們會發現,推導之後和原始PCA演算法一模一樣。引數C可以調整。
-
多項式核
比線性核稍微複雜一點,由於多了指數d,所以可以處理非線性問題。 這裡要求a大於0,c大於等於0。多項式核心非常適合於所有訓練資料都歸一化的問題。這個核函式是比較好用的,就是引數比較多,但是還算穩定。引數a,c,d都可以調。
-
高斯核
高斯核是徑向基函式核(RBF)的一個典型代表。非常好用,用的也很多。
高斯核在計算中涉及到兩個向量的歐式距離(2範數)計算,可調引數只有一個sigma,它控制著函式的作用範圍。
以二維向量為例,如果y固定,那麼y就充當著對稱軸的作用;sigma控制著函式的胖瘦,也就是作用範圍。下圖中,距離對稱軸小於sigma的範圍內,影象是有高度的,sigma之外的範圍,函式基本沒有高度(沒起作用)。
-
指數核
也是RBF代表,和高斯核很像,只是將L2範數變成L1。 -
拉普拉斯核
拉普拉斯核完全等價於指數核,唯一的區別在於前者對引數的敏感性降低,也是一種RBF。
四. KPCA的簡單推導
為了進一步理解KPCA,我們這裡做一個簡單的推導,看看KPCA究竟是什麼鬼東西!
假設原始資料是如下矩陣X:(資料每一列為一個樣本,每個樣本有m個屬性,一共有n個樣本)
將每個樣本通過函式φ對映到高維空間,得到高維空間的資料矩陣φ(X)。
用同樣的方法計算高維空間中資料的協方差矩陣,進一步計算特徵值與特徵向量。
定理:空間中的任一向量(哪怕是基向量),都可以由該空間中的所有樣本線性表示,這點對KPCA很重要。
所以根據這個定理,我們就可以用所有樣本來表示特徵向量:
將這個線性組合帶回到特徵向量公式,替換特徵向量,得到:
進一步,等式兩邊同時左乘一個 φ(X)的轉置:(目的是構造2個φ(X)的轉置 乘 φ(X))
等式兩邊同時除以K,得到:
得到了與PCA相似度極高的求解公式。
下面來看一下這個K,到底怎麼求呢?我們的核函式閃亮登場了!
注意,協方差矩陣是X乘X的轉置,落實到計算是任意2個特徵(行)的點積;而此處的核矩陣K是反過來的,X的轉置乘X,它落實到計算是任意2個樣本(列)的點積。這個核矩陣是n維的,維度和樣本數相同,而不是特徵數。
根據核函式的性質,上面這個核矩陣K可以直接在低維空間計算得到:
接下來,和PCA相同,求K最大的幾個特徵值所對應的特徵向量,由於K為對稱矩陣,所得的解向量彼此之間肯定是正交的。
注意,這裡的特徵向量α只是K的特徵向量,不是高維空間中的特徵向量。看之前那個定理,高維空間的特徵向量 W 與對映函式有關是 φ(X)α。既然α不是高維空間的座標軸,那它是什麼呢?它其實是全部樣本在這個軸上的投影了,也即是我們所需的進行降維後的資料了。
由於K是n(樣本數)維方陣,所以最多有n個特徵值,所以理論上講KPCA的降維結果最高可以達到n維,會比降維之前的特徵多。但是核心資訊都在前幾個軸上面,至於取幾個軸,就看經驗啦。
五. 總結一下KPCA演算法的計算過程
- 去除平均值,進行中心化。
- 利用核函式計算核矩陣K。
- 計算核矩陣的特徵值和特徵向量。
- 將特徵相量按對應特徵值大小從上到下按行排列成矩陣,取前k行組成矩陣P。
- P即為降維後的資料。
相關文章
- 非線性支援向量機 與核函式函式
- 《機器學習_07_03_svm_核函式與非線性支援向量機》機器學習函式
- 核化線性降維中部分公式的推導公式
- 核函式 多項式核函式 高斯核函式(常用)函式
- 如何給列表降維?sum()函式的妙用函式
- 如何給列表降維?sum() 函式的妙用函式
- 平凡的函式 線性篩積性函式函式
- 核函式匯出的核矩陣性質的證明函式矩陣
- cuda 核函式函式
- 【機器學習】李宏毅——線性降維機器學習
- sum() 函式效能堪憂,列表降維有何良方?函式
- 運籌優化(十一)--無約束非線性規劃優化
- 機器學習降維之線性判別分析機器學習
- 15.3 極限函式與和函式性質函式
- 支援向量機 (二): 軟間隔 svm 與 核函式函式
- 關於 線性規劃 非線性規劃 與 凸優化優化
- 降維與度量學習
- 支援向量機(非線性模型)——改寫優化目標函式和限制條件模型優化函式
- 目標函式存在累加的非線性優化問題的求解思路zzzzzzzzzzzzzzzzzzzz(1)函式優化
- 支援向量機(非線性模型)——改寫最佳化目標函式和限制條件模型函式
- 【TVM 教程】線性和遞迴核遞迴
- 神經網路可能不再需要啟用函式?Layer Normalization也具有非線性表達!神經網路函式ORM
- SNN 核函式的2種形狀函式
- 4擬合線性函式的k和b函式
- 雜湊函式與資料完整性 (^=◕ᴥ◕=^)函式
- 什麼是“非線性疊加”?線性又是哪條線?
- matlab求解非線性規劃Matlab
- SVM 的核函式選擇和調參函式
- 基於TRE文章的非線性模型化線性方法模型
- Spark 系列(十一)—— Spark SQL 聚合函式 AggregationsSparkSQL函式
- vue 全域性函式的 定義與任意呼叫Vue函式
- 自控原理中的線性系統和非線性系統
- 非線性最優化最佳教材優化
- Kotlin知識歸納(十一) —— 高階函式Kotlin函式
- 【原創】淺談指標(十一)alloca函式指標函式
- 機器學習演算法(6)用Python實現用核支援向量機求解非線性問題機器學習演算法Python
- 1維線性迴歸
- Kotlin擴充套件函式與屬性原理解析Kotlin套件函式