機器學習中,有哪些特徵選擇的工程方法?

七月線上實驗室發表於2018-07-09

解析:

本題解析來源:@jasonfreak,連結:http://www.cnblogs.com/jasonfreak/p/5448385.html

 

目錄

1 特徵工程是什麼?

2 資料預處理

  2.1 無量綱化

    2.1.1 標準化

    2.1.2 區間縮放法

    2.1.3 標準化與歸一化的區別

  2.2 對定量特徵二值化

  2.3 對定性特徵啞編碼

  2.4 缺失值計算

  2.5 資料變換

  2.6 回顧

3 特徵選擇

  3.1 Filter

    3.1.1 方差選擇法

    3.1.2 相關係數法

    3.1.3 卡方檢驗

    3.1.4 互資訊法

  3.2 Wrapper

    3.2.1 遞迴特徵消除法

  3.3 Embedded

    3.3.1 基於懲罰項的特徵選擇法

    3.3.2 基於樹模型的特徵選擇法

  3.4 回顧

4 降維

  4.1 主成分分析法(PCA)

  4.2 線性判別分析法(LDA)

  4.3 回顧

5 總結

6 參考資料

 

1 特徵工程是什麼?

  有這麼一句話在業界廣泛流傳:資料和特徵決定了機器學習的上限,而模型和演算法只是逼近這個上限而已。那特徵工程到底是什麼呢?顧名思義,其本質是一項工程活動,目的是最大限度地從原始資料中提取特徵以供演算法和模型使用。通過總結和歸納,人們認為特徵工程包括以下方面:

640?wx_fmt=jpeg

特徵處理是特徵工程的核心部分,sklearn提供了較為完整的特徵處理方法,包括資料預處理,特徵選擇,降維等。首次接觸到sklearn,通常會被其豐富且方便的演算法模型庫吸引,但是這裡介紹的特徵處理庫也十分強大!

 

本文中使用sklearn中的IRIS(鳶尾花)資料集來對特徵處理功能進行說明。IRIS資料集由Fisher在1936年整理,包含4個特徵(Sepal.Length(花萼長度)、Sepal.Width(花萼寬度)、Petal.Length(花瓣長度)、Petal.Width(花瓣寬度)),特徵值都為正浮點數,單位為釐米。目標值為鳶尾花的分類(Iris Setosa(山鳶尾)、Iris Versicolour(雜色鳶尾),Iris Virginica(維吉尼亞鳶尾))。

 

匯入IRIS資料集的程式碼如下:

from sklearn.datasets import load_iris

 

#匯入IRIS資料集

iris = load_iris()

 

#特徵矩陣

iris.data

 

#目標向量

iris.target

 

2 資料預處理

通過特徵提取,我們能得到未經處理的特徵,這時的特徵可能有以下問題:

 

a)不屬於同一量綱:即特徵的規格不一樣,不能夠放在一起比較。無量綱化可以解決這一問題。

 

b)資訊冗餘:對於某些定量特徵,其包含的有效資訊為區間劃分,例如學習成績,假若只關心“及格”或不“及格”,那麼需要將定量的考分,轉換成“1”和“0”表示及格和未及格。二值化可以解決這一問題。

 

c)定性特徵不能直接使用:某些機器學習演算法和模型只能接受定量特徵的輸入,那麼需要將定性特徵轉換為定量特徵。最簡單的方式是為每一種定性值指定一個定量值,但是這種方式過於靈活,增加了調參的工作。通常使用啞編碼的方式將定性特徵轉換為定量特徵:假設有N種定性值,則將這一個特徵擴充套件為N種特徵,當原始特徵值為第i種定性值時,第i個擴充套件特徵賦值為1,其他擴充套件特徵賦值為0。啞編碼的方式相比直接指定的方式,不用增加調參的工作,對於線性模型來說,使用啞編碼後的特徵可達到非線性的效果。

 

d)存在缺失值:缺失值需要補充。

 

e)資訊利用率低:不同的機器學習演算法和模型對資料中資訊的利用是不同的,之前提到線上性模型中,使用對定性特徵啞編碼可以達到非線性的效果。類似地,對定量變數多項式化,或者進行其他的轉換,都能達到非線性的效果。

 

我們使用sklearn中的preproccessing庫來進行資料預處理,可以覆蓋以上問題的解決方案。

 

2.1 無量綱化

無量綱化使不同規格的資料轉換到同一規格。常見的無量綱化方法有標準化和區間縮放法。標準化的前提是特徵值服從正態分佈,標準化後,其轉換成標準正態分佈。區間縮放法利用了邊界值資訊,將特徵的取值區間縮放到某個特點的範圍,例如[0, 1]等。

 

2.1.1 標準化

 

標準化需要計算特徵的均值和標準差,公式表達為

 

640?wx_fmt=png

使用preproccessing庫的StandardScaler類對資料進行標準化的程式碼如下:

from sklearn.preprocessing import StandardScaler

 

#標準化,返回值為標準化後的資料

StandardScaler().fit_transform(iris.data)

 

2.1.2 區間縮放法

區間縮放法的思路有多種,常見的一種為利用兩個最值進行縮放,公式表達為:

 

640?wx_fmt=png

使用preproccessing庫的MinMaxScaler類對資料進行區間縮放的程式碼如下:

from sklearn.preprocessing import MinMaxScaler

 

#區間縮放,返回值為縮放到[0, 1]區間的資料

MinMaxScaler().fit_transform(iris.data)

 

2.1.3 標準化與歸一化的區別

簡單來說,標準化是依照特徵矩陣的列處理資料,其通過求z-score的方法,將樣本的特徵值轉換到同一量綱下。歸一化是依照特徵矩陣的行處理資料,其目的在於樣本向量在點乘運算或其他核函式計算相似性時,擁有統一的標準,也就是說都轉化為“單位向量”。規則為l2的歸一化公式如下:

 

640?wx_fmt=png

使用preproccessing庫的Normalizer類對資料進行歸一化的程式碼如下:

from sklearn.preprocessing import Normalizer

 

#歸一化,返回值為歸一化後的資料

Normalizer().fit_transform(iris.data)

 

2.2 對定量特徵二值化

定量特徵二值化的核心在於設定一個閾值,大於閾值的賦值為1,小於等於閾值的賦值為0,公式表達如下:

640?wx_fmt=png 

使用preproccessing庫的Binarizer類對資料進行二值化的程式碼如下:

from sklearn.preprocessing import Binarizer

 

#二值化,閾值設定為3,返回值為二值化後的資料

Binarizer(threshold=3).fit_transform(iris.data)

 

2.3 對定性特徵啞編碼

由於IRIS資料集的特徵皆為定量特徵,故使用其目標值進行啞編碼(實際上是不需要的)。使用preproccessing庫的OneHotEncoder類對資料進行啞編碼的程式碼如下:

from sklearn.preprocessing import OneHotEncoder

 

#啞編碼,對IRIS資料集的目標值,返回值為啞編碼後的資料

OneHotEncoder().fit_transform(iris.target.reshape((-1,1)))

 

2.4 缺失值計算

由於IRIS資料集沒有缺失值,故對資料集新增一個樣本,4個特徵均賦值為NaN,表示資料缺失。使用preproccessing庫的Imputer類對資料進行缺失值計算的程式碼如下:

 

from numpy import vstack, array, nan

from sklearn.preprocessing import Imputer

 

#缺失值計算,返回值為計算缺失值後的資料

#引數missing_value為缺失值的表示形式,預設為NaN

#引數strategy為缺失值填充方式,預設為mean(均值)

Imputer().fit_transform(vstack((array([nan, nan, nan, nan]), iris.data)))

 

2.5 資料變換

常見的資料變換有基於多項式的、基於指數函式的、基於對數函式的。4個特徵,度為2的多項式轉換公式如下:

 

640?wx_fmt=png

使用preproccessing庫的PolynomialFeatures類對資料進行多項式轉換的程式碼如下:

from sklearn.preprocessing import PolynomialFeatures

 

#多項式轉換

#引數degree為度,預設值為2

PolynomialFeatures().fit_transform(iris.data)

 

基於單變元函式的資料變換可以使用一個統一的方式完成,使用preproccessing庫的FunctionTransformer對資料進行對數函式轉換的程式碼如下:

from numpy import log1p

from sklearn.preprocessing import FunctionTransformer

 

#自定義轉換函式為對數函式的資料變換

#第一個引數是單變元函式

FunctionTransformer(log1p).fit_transform(iris.data)

 

2.6 回顧

 

640?wx_fmt=png

3 特徵選擇

當資料預處理完成後,我們需要選擇有意義的特徵輸入機器學習的演算法和模型進行訓練。通常來說,從兩個方面考慮來選擇特徵:

 

I、特徵是否發散:如果一個特徵不發散,例如方差接近於0,也就是說樣本在這個特徵上基本上沒有差異,這個特徵對於樣本的區分並沒有什麼用。

II、特徵與目標的相關性:這點比較顯見,與目標相關性高的特徵,應當優選選擇。除方差法外,本文介紹的其他方法均從相關性考慮。

 

根據特徵選擇的形式又可以將特徵選擇方法分為3種:

i)Filter:過濾法,按照發散性或者相關性對各個特徵進行評分,設定閾值或者待選擇閾值的個數,選擇特徵。

ii)Wrapper:包裝法,根據目標函式(通常是預測效果評分),每次選擇若干特徵,或者排除若干特徵。

iii)Embedded:嵌入法,先使用某些機器學習的演算法和模型進行訓練,得到各個特徵的權值係數,根據係數從大到小選擇特徵。類似於Filter方法,但是是通過訓練來確定特徵的優劣。

 

我們使用sklearn中的feature_selection庫來進行特徵選擇。

 

3.1 Filter

3.1.1 方差選擇法

使用方差選擇法,先要計算各個特徵的方差,然後根據閾值,選擇方差大於閾值的特徵。使用feature_selection庫的VarianceThreshold類來選擇特徵的程式碼如下:

 

from sklearn.feature_selection import VarianceThreshold

 

#方差選擇法,返回值為特徵選擇後的資料

#引數threshold為方差的閾值

VarianceThreshold(threshold=3).fit_transform(iris.data)

 

3.1.2 相關係數法

使用相關係數法,先要計算各個特徵對目標值的相關係數以及相關係數的P值。用feature_selection庫的SelectKBest類結合相關係數來選擇特徵的程式碼如下:

from sklearn.feature_selection import SelectKBest

from scipy.stats import pearsonr

 

#選擇K個最好的特徵,返回選擇特徵後的資料

#第一個引數為計算評估特徵是否好的函式,該函式輸入特徵矩陣和目標向量,輸出二元組(評分,P值)的陣列,陣列第i項為第i個特徵的評分和P值。在此定義為計算相關係數

#引數k為選擇的特徵個數

SelectKBest(lambda X, Y: array(map(lambda x:pearsonr(x, Y), X.T)).T,k=2).fit_transform(iris.data, iris.target)

 

3.1.3 卡方檢驗

經典的卡方檢驗是檢驗定性自變數對定性因變數的相關性。假設自變數有N種取值,因變數有M種取值,考慮自變數等於i且因變數等於j的樣本頻數的觀察值與期望的差距,構建統計量:

 

640?wx_fmt=png

這個統計量的含義簡而言之就是自變數對因變數的相關性。用feature_selection庫的SelectKBest類結合卡方檢驗來選擇特徵的程式碼如下:

from sklearn.feature_selection import SelectKBest

from sklearn.feature_selection import chi2

 

#選擇K個最好的特徵,返回選擇特徵後的資料

SelectKBest(chi2, k=2).fit_transform(iris.data, iris.target)

 

3.1.4 互資訊法

經典的互資訊也是評價定性自變數對定性因變數的相關性的,互資訊計算公式如下:

640?wx_fmt=png 

為了處理定量資料,最大資訊係數法被提出,使用feature_selection庫的SelectKBest類結合最大資訊係數法來選擇特徵的程式碼如下:

 

from sklearn.feature_selection import SelectKBest

from minepy import MINE

 

#由於MINE的設計不是函式式的,定義mic方法將其為函式式的,返回一個二元組,二元組的第2項設定成固定的P值0.5

def mic(x, y):

     m = MINE()

     m.compute_score(x, y)

     return (m.mic(), 0.5)

 

#選擇K個最好的特徵,返回特徵選擇後的資料

SelectKBest(lambda X, Y: array(map(lambda x:mic(x, Y), X.T)).T,k=2).fit_transform(iris.data, iris.target)

 

3.2 Wrapper

3.2.1 遞迴特徵消除法

遞迴消除特徵法使用一個基模型來進行多輪訓練,每輪訓練後,消除若干權值係數的特徵,再基於新的特徵集進行下一輪訓練。使用feature_selection庫的RFE類來選擇特徵的程式碼如下:

 

from sklearn.feature_selection import RFE

from sklearn.linear_model import LogisticRegression

 

#遞迴特徵消除法,返回特徵選擇後的資料

#引數estimator為基模型

#引數n_features_to_select為選擇的特徵個數

RFE(estimator=LogisticRegression(),n_features_to_select=2).fit_transform(iris.data, iris.target)

 

3.3 Embedded

3.3.1 基於懲罰項的特徵選擇法

使用帶懲罰項的基模型,除了篩選出特徵外,同時也進行了降維。使用feature_selection庫的SelectFromModel類結合帶L1懲罰項的邏輯迴歸模型,來選擇特徵的程式碼如下:

 

from sklearn.feature_selection import SelectFromModel

from sklearn.linear_model import LogisticRegression

 

#帶L1懲罰項的邏輯迴歸作為基模型的特徵選擇

SelectFromModel(LogisticRegression(penalty="l1",C=0.1)).fit_transform(iris.data, iris.target)

 

L1懲罰項降維的原理在於保留多個對目標值具有同等相關性的特徵中的一個,所以沒選到的特徵不代表不重要。故,可結合L2懲罰項來優化。具體操作為:若一個特徵在L1中的權值為1,選擇在L2中權值差別不大且在L1中權值為0的特徵構成同類集合,將這一集合中的特徵平分L1中的權值,故需要構建一個新的邏輯迴歸模型:

 

from sklearn.linear_model import LogisticRegression

 

class LR(LogisticRegression):

     def __init__(self,threshold=0.01, dual=False, tol=1e-4, C=1.0,

                 fit_intercept=True,intercept_scaling=1, class_weight=None,

                 random_state=None,solver='liblinear', max_iter=100,

                 multi_class='ovr',verbose=0, warm_start=False, n_jobs=1):

 

        #權值相近的閾值

        self.threshold = threshold

        LogisticRegression.__init__(self, penalty='l1', dual=dual, tol=tol, C=C,

                 fit_intercept=fit_intercept, intercept_scaling=intercept_scaling,class_weight=class_weight,

                 random_state=random_state, solver=solver, max_iter=max_iter,

                 multi_class=multi_class, verbose=verbose, warm_start=warm_start,n_jobs=n_jobs)

         #使用同樣的引數建立L2邏輯迴歸

         self.l2 =LogisticRegression(penalty='l2', dual=dual, tol=tol, C=C,fit_intercept=fit_intercept, intercept_scaling=intercept_scaling, class_weight= class_weight, random_state=random_state, solver=solver, max_iter=max_iter,multi_class=multi_class, verbose=verbose, warm_start=warm_start, n_jobs=n_jobs)

 

     def fit(self, X, y,sample_weight=None):

         #訓練L1邏輯迴歸

         super(LR, self).fit(X, y,sample_weight=sample_weight)

         self.coef_old_ =self.coef_.copy()

         #訓練L2邏輯迴歸

         self.l2.fit(X, y,sample_weight=sample_weight)

 

         cntOfRow, cntOfCol =self.coef_.shape

         #權值係數矩陣的行數對應目標值的種類數目

         for i in range(cntOfRow):

             for j in range(cntOfCol):

                 coef =self.coef_[i][j]

                 #L1邏輯迴歸的權值係數不為0

                 if coef != 0:

                     idx = [j]

                     #對應在L2邏輯迴歸中的權值係數

                     coef1 =self.l2.coef_[i][j]

                     for k inrange(cntOfCol):

                         coef2 =self.l2.coef_[i][k]

                         #在L2邏輯迴歸中,權值係數之差小於設定的閾值,且在L1中對應的權值為0

                         ifabs(coef1-coef2) < self.threshold and j != k and self.coef_[i][k] == 0:

                             idx.append(k)

                     #計算這一類特徵的權值係數均值

                     mean = coef /len(idx)

                    self.coef_[i][idx] = mean

         return self

 

使用feature_selection庫的SelectFromModel類結合帶L1以及L2懲罰項的邏輯迴歸模型,來選擇特徵的程式碼如下:

from sklearn.feature_selection import SelectFromModel

 

#帶L1和L2懲罰項的邏輯迴歸作為基模型的特徵選擇

#引數threshold為權值係數之差的閾值

SelectFromModel(LR(threshold=0.5, C=0.1)).fit_transform(iris.data,iris.target)

 

3.3.2 基於樹模型的特徵選擇法

樹模型中GBDT也可用來作為基模型進行特徵選擇,使用feature_selection庫的SelectFromModel類結合GBDT模型,來選擇特徵的程式碼如下:

 

from sklearn.feature_selection import SelectFromModel

from sklearn.ensemble import GradientBoostingClassifier

 

#GBDT作為基模型的特徵選擇

SelectFromModel(GradientBoostingClassifier()).fit_transform(iris.data,iris.target)

 

3.4 回顧

640?wx_fmt=png

4 降維

當特徵選擇完成後,可以直接訓練模型了,但是可能由於特徵矩陣過大,導致計算量大,訓練時間長的問題,因此降低特徵矩陣維度也是必不可少的。常見的降維方法除了以上提到的基於L1懲罰項的模型以外,另外還有主成分分析法(PCA)和線性判別分析(LDA),線性判別分析本身也是一個分類模型。

 

PCA和LDA有很多的相似點,其本質是要將原始的樣本對映到維度更低的樣本空間中,但是PCA和LDA的對映目標不一樣:PCA是為了讓對映後的樣本具有最大的發散性;而LDA是為了讓對映後的樣本有最好的分類效能。所以說PCA是一種無監督的降維方法,而LDA是一種有監督的降維方法。

 

4.1 主成分分析法(PCA)

使用decomposition庫的PCA類選擇特徵的程式碼如下:

 

from sklearn.decomposition import PCA

 

#主成分分析法,返回降維後的資料

#引數n_components為主成分數目

PCA(n_components=2).fit_transform(iris.data)

 

4.2 線性判別分析法(LDA)

使用lda庫的LDA類選擇特徵的程式碼如下:

from sklearn.lda import LDA

 

#線性判別分析法,返回降維後的資料

#引數n_components為降維後的維數

LDA(n_components=2).fit_transform(iris.data, iris.target)

640?wx_fmt=gif 

通過以上講解,大家對於特徵工程有沒有更深的認識呢?針對這一部分的內容,我們在機器學習第九期的課程中也進行了詳細的講解,還有學員做出了詳細的課程筆記:

640?wx_fmt=png

對於第九期的課程學習中出現的問題,大家也在群裡進行了討論和交流。

640?wx_fmt=jpeg

640?wx_fmt=jpeg

因為機器學習是一門實戰性極強的學科,所以看一個課程是否有真正的工業實戰,一看講師團隊是否是公司裡多年實際帶隊做機器學習的,二看教學理念/側重。


第一方面,本課程的所有講師均全部來自BAT + Google的一線技術大咖親自授課,是真正工業人士授課的工業課程,幫助學員實際理解這些機器學習理論模型演算法到底是如何應用在工業實踐中的。


第二方面,如上所說,網上視訊很多,但由於沒有個性化的內容、輔導、答疑,導致不少初學者看再多視訊,視訊看再多次,都是迷迷糊糊、不成體系,故本課程除了直播答疑之外,首次新增每週作業和階段考試,且作業和考試均一對一批改,更針對性的提供面試輔導、推薦就業,助力找/換工作和升職加薪。


機器學習第九期課程詳情可點選文末“閱讀原文”進行檢視,或者加微信客服:julyedukefu_02進行諮詢。

640?wx_fmt=jpeg

相關文章