深度學習可解釋性差到底是什麼意思?

CDA 資料分析師發表於2019-03-06


很多人在學習深度學習的時候會遇到一個疑惑,那就是深度學習可解釋差這個說法是否準確。這個拗口的詞彙相信大家對其義也不甚瞭解。雖說這個詞彙不好理解,但是這個詞彙確實是一個十分重要的概念,我們要想學習深度學習知識就不能忽略這個詞彙。那麼深度學習可解釋差到底是什麼意思呢?下面我們就給大家介紹一下這個詞彙的意思。

首先我們給大家解讀一下“解釋”的含義,其實解釋的意思就是在觀察的基礎上進行思考,合理地說明事物變化的原因,事物之間的聯絡,或者是事物發展的規律。而深度學習可解釋性差,意思就是我們很難去說明一條樣本資料灌進一個神經網路出來這樣一個預測結果的原因,這造成的直接後果就是很多時候我們不清楚如何針對一個神經網路做優化。

我們怎麼去解釋這個詞彙的意思呢?其實我們可以從一個線性迴歸模型考慮。就拿現在大家最關心的房價來說,房價的因素有很多,我們主要就是說兩種,第一就是面積,第二就是到市中心的距離。我們認為一個房子的房價受房屋大小和到始終細膩距離兩個因素影響,而且到市中心距離這個因素的印象力很大,比房屋面積大100倍。我們還可以針對每個權重和偏置做假設檢驗,來看看這三個因素有沒有哪些是無顯著影響的。對於這種只有兩個因素的線性模型,我們甚至還可以將模型的函式影像畫出來,直觀地檢查模型與資料擬合程度如何。對於線性模型,我們很清楚每一個權重和偏置的含義是什麼。所以我們可以有很多明確的優化方案。這就是線性迴歸的相關思想知識。

當然神經網路有很多的結構,也有很多的特點,第一個特點就是神經元多,引數眾多;第二個特點就是結構分層,且隱含層眾多;第三個特點就是神經網路的引數對應的特徵不是人工設計的,是神經網路在學習過程中自己選擇的。我們根本不知道我們的神經網路模型到底學習了寫什麼,我們不知道每一個引數的含義是什麼,所以我們無法解釋整個模型的運作機制,自然也無法得出明確而又針對性的優化方案。

其實深度學習的缺陷有很多,可解釋性差也是深度學習目前最大的缺陷之一。所以說,可解釋性差總是讓深度學習解釋事物不是那麼完美。因此,我們還需要發現一些更好的方式去彌補這個缺陷,這是深度學習發展的方向之一。相信這篇文章給予大家更多的一些思考和啟發,同時也發現深度學習還有很長的路要走,不過路越長說明就業的機會也更多,大家好好加油吧。

相關文章