KDD 2019論文解讀:多分類下的模型可解釋性

支付寶技術團隊發表於2019-08-28
日前,由阿里巴巴研究型實習生張雪舟、螞蟻金服高階演算法專家婁寅撰寫的論文《Axiomatic Interpretability for Multiclass Additive Models》入選全球資料探勘頂級會議KDD 2019,本文為該論文的詳細解讀。論文地址: https://www.kdd.org/kdd2019/a...

前言

模型可解釋性是機器學習研究中的一個重要課題。這裡我們研究的物件是廣義加性模型(Generalized Additive Models,簡稱GAMs)。GAM在醫療等對解釋性要求較高的場景下已經有了廣泛的應用 [1]。

GAM作為一個完全白盒化的模型提供了比(廣義)線性模型(GLMs)更好的模型表達能力:GAM能對單特徵和雙特徵交叉(pairwise interaction)做非線性的變換。帶pairwiseinteraction的GAM往往被稱為GA2M。以下是GA2

M模型的數學表達:

KDD 2019論文解讀:多分類下的模型可解釋性

其中g是linkfunction,fi和fij被稱為shape function,分別為模型所需要學習的特徵變換函式。由於fi和fij都是低緯度的函式,模型中每一個函式都可以被視覺化出來,從而方便建模人員瞭解每個特徵是如何影響最終預測的。例如在[1]中,年齡對肺炎致死率的影響就可以用一張圖來表示。

KDD 2019論文解讀:多分類下的模型可解釋性

由於GAM對特徵做了非線性變換,這使得GAM往往能提供比線性模型更強大的建模能力。在一些研究中GAM的效果往往能逼近Boosted Trees或者Random Forests [1, 2, 3]。

視覺化影象與模型的預測機制之間的矛盾

本文首先討論了在多分類問題的下,傳統可解釋性演算法(例如邏輯迴歸,SVM)的視覺化影象與模型的預測機制之間存在的矛盾。如果直接通過這些未經加工的視覺化影象理解模型預測機制,有可能造成建模人員對模型預測機制的錯誤解讀。如圖1所示,左邊是在一個多分類GAM下age的shape function。粗看之下這張圖表示了Diabetes I的風險隨年齡增長而增加。然而當我們看實際的預測概率(右圖),Diabetes I的風險其實應該是隨著年齡的增加而降低的。

KDD 2019論文解讀:多分類下的模型可解釋性

為了解決這一問題,本文提出了一種後期處理方法(AdditivePost-Processing for Interpretability, API),能夠對用任意演算法訓練的GAM進行處理,使得在 不改變模型預測的前提下,處理後模型的視覺化影象與模型的預測機制相符,由此讓建模人員可以安全的通過傳統的視覺化方法來觀察和理解模型的預測機制,而不會被錯誤的視覺資訊誤導。

多分類下的模型可解釋性

API的設計理念來源於兩個在長期使用GAM的過程中得到的可解釋性定理(Axioms of Interpretability)。我們希望一個GAM模型具備如下兩個性質:

  1. 任意一個shape function fik (對應feature i和class k)的形狀,必須要和真實的預測概率Pk的形狀相符,即我們不希望看到一個shape function是遞增的,但實際上預測概率是遞減的情況。

KDD 2019論文解讀:多分類下的模型可解釋性

  1. Shape function應該避免任何不必要的不平滑。不平滑的shape function會讓建模人員難以理解模型的預測趨勢。

KDD 2019論文解讀:多分類下的模型可解釋性

KDD 2019論文解讀:多分類下的模型可解釋性

現在我們知道我們想要的模型需要滿足什麼性質,那麼如何找到這樣的模型,而不改變原模型的預測呢?這裡就要用到一個重要的softmax函式的性質。

KDD 2019論文解讀:多分類下的模型可解釋性

對於一個softmax函式,如果在每一個輸入項中加上同一個函式,由此得來的模型是和原模型 完全等價的。也就是說,這兩個模型在任何情況下的預測結果都相同。基於這樣的性質,我們就可以設計一個g 函式,讓加入g函式之後的模型滿足我們想要的性質。

KDD 2019論文解讀:多分類下的模型可解釋性

我們在文章中從數學上證明,以上這個優化問題永遠有 唯一的全域性最優解,並且我們給出了這個解的 解析形式。我們基於此設計的後期處理方法幾乎不消耗任何計算資源,卻可以把具有誤導性的GAM模型轉化成可以放心觀察的可解釋模型。

在一個預測嬰兒死因的資料上(12類分類問題),我們採用API對shapefunction做了處理,從而使得他們能真實地反應預測概率變化的趨勢。這裡可以看到,在採用API之前,模型視覺化提供的資訊是所有死因都和嬰兒體重和Apgar值成負相關趨勢。但是在採用API之後我們發現,實際上不同的死因與嬰兒體重和Apgar值的關係

KDD 2019論文解讀:多分類下的模型可解釋性

是不一樣的:其中一些死因是正相關,一些死因是負相關,另外一些在嬰兒體重和Apgar值達到某個中間值得時候死亡率達到最高。API使得醫療人員能夠通過模型得到更準確的預測資訊。

總結

在很多mission-critical的場景下(醫療,金融等),模型可解釋性往往比模型自身的準確性更重要。廣義加性模型作為一個高精確度又完全白盒化的模型,預期能在更多的應用場景上落地。

Reference

[1] Caruana et al. Intelligible Modelsfor HealthCare: Predicting Pneumonia Risk and Hospital 30-day Readmission. In KDD2015.

[2] Lou et al. Intelligible Models for Classification and Regression. In KDD2012.

[3] Lou et al. Accurate Intelligible Models withPairwise Interactions. In KDD 2013.


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69904796/viewspace-2655222/,如需轉載,請註明出處,否則將追究法律責任。

相關文章