機器學習並不“萬能”

dicksonjyl560101發表於2019-08-19
導語:機器學習有時候是好的解決方案,有時候則不是。

“如果一個人可以在1秒以內完成一項思維任務,那麼可能在現在或者不久的將來,我們可以使用人工智慧(AI)來自動化處理這項任務。”

——吳恩達

本文讀者大多數比較熟悉機器學習,也會使用相關演算法來根據資料對結果進行分類和預測。然而,很重要的一點,就是機器學習並不是解決一切問題的萬能 鑰匙。機器學習如此有用,所以大家很難接受一個事實——有時候機器學習並不是一個問題的最佳解決方法。

這篇文章就是想告訴大家, 機器學習有時候是好的解決方案,有時候則不是

機器學習並不“萬能”

眾所周知,機器學習作為人工智慧的一部分,在過去十年對世界產生了革命性的影響。資訊爆炸引起了大資料的採集,尤其是像臉書、谷歌這樣的大公司。資料量加上處理器功耗和計算機並行處理的快速發展,使得大資料的獲取和學習變得相對容易。

今天,對機器學習和人工智慧的吹捧無處不再。這可能是對的,因為這個領域的潛力是巨大的。人工智慧公司數量在過去幾年裡爆發式增加,根據 Indeed 的一份報告,2015-2018 年,與人工智慧相關的崗位數量增加了 100%。

截至2018年12月,福布斯發現 47% 的企業在其業務流程中包含至少一個人工智慧功能。根據 Deloitte 的報告,內建 AI 和基於雲的 AI 開發服務在企業軟體的滲透率估計分別達到 87% 和 83%。這些資料是非常驚人的——如果近期你想做些職業變動,人工智慧看上去是個不錯的選擇。

一切看上去都挺美好的?公司滿意,想來消費者也是滿意的——否則企業是不會使用人工智慧的。

這很好,因為我是機器學習和人工智慧的超級粉絲。然而,有時候使用機器學習就沒什麼必要,也說不通,甚至在操作的時候會給人帶來困難。

  侷限1——倫理

眾所周知,機器學習作為人工智慧的一部分,在過去十年對世界產生了革命性的影響。資訊爆炸引起了大資料的採集,尤其是像臉書、谷歌這樣的大公司。資料量加上處理器功耗和計算機並行處理的快速發展,使得大資料的獲取和學習變得相對容易。

不難理解為什麼機器學習會對世界產生如此大的影響,不用再明確它的能力是什麼,可能更重要的,是知道它的侷限是什麼。尤瓦爾·赫拉利創造了有名的“資料主義”一詞,指的是我們正在進入的一個假定的文明新階段,在這個階段裡,我們對演算法和資料的信任超過了對我們自身判斷和邏輯的信任。

雖然會覺得這個想法可笑,但你想想上次去旅行的時候,是不是跟著 GPS 的導航而不是自己看著地圖走——你質疑過 GPS 的判斷嗎?人們盲目地跟隨 GPS 的指引,結果掉進了湖裡...

信任資料和演算法超過自身的判斷,有利有弊。顯然地,我們從演算法中獲益,不然一開始也不會使用。演算法透過可用資料作出預期判斷來實現自動化處理。雖然有時候,這意味著某個人的工作會被一種演算法取代,產生一些倫理問題。加之,如果事情變得糟糕,我們應歸責於誰?

最近討論最廣泛的例子就是自動駕駛——我們應該如何選擇汽車在撞死人後應該作出的反應?未來我們在購買汽車的時候,也不得不選擇自己購買自動駕駛車輛的倫理框架嗎?

如果我的自動駕駛車在路上撞死了人,那麼是誰的責任?

這些都是引人深思的問題,但並不是本文的主要目的。顯然,機器學習不能告訴我們應該接受什麼規範價值,即在世界上特定的處境裡,應該如何採取行動。就像大衛·休謨著名諺語所說,一個人永遠不能從“本來如此”得出“應該如此”。

  限制2——確定性問題

這是我個人必須面對的一個問題,因為我的專業領域是環境科學,它嚴重依賴於計算建模和使用感測器/物聯網裝置。 

機器學習對於感測器來說是非常強大的,當連線到其他測量環境變數(如溫度、壓力和溼度)的感測器時,機器學習可以幫助校準和校正感測器。這些感測器訊號之間的相關性可以用來發展自校準程式,這在我研究的大氣化學研究領域中是一個熱點研究課題。 

然而,當涉及到計算建模時,事情會變得更有趣。 

執行模擬全球天氣、地球的排放和這些排放的傳輸的計算模型在計算上是非常昂貴的。事實上,計算成本太高,即使在超級計算機上執行,研究級的模擬也可能需要數週的時間。 

MM5和WRF是這方面的很好的例子,它們是用於氣候研究和在早間新聞上給你天氣預報的數值天氣預報模型。知道天氣預報員一整天都做些什麼嗎?答案:執行並研究這些模型。 

執行天氣模型是很好,但是現在我們有了機器學習,我們是否可以用它來獲取我們的天氣預報呢?我們能利用衛星、氣象站的資料,並使用基本的預測演算法來判斷明天是否會下雨嗎?

令人驚訝,答案是肯定的。如果我們瞭解某一區域周圍的空氣壓力、空氣中的溼度水平、風速、與相鄰點及其自身變數有關的資訊,就有可能訓練,例如,神經網路。但代價是什麼?

用一個有上千個輸入的神經網路來確定明天波士頓是否會下雨是可能的。然而,利用神經網路忽略了整個天氣系統的物理過程。

機器學習是隨機的,而不是確定性的。

神經網路不理解牛頓第二定律,或者說密度不可能是負的-沒有物理約束。

然而,這可能不會是一個長期的限制。有多個研究人員正在研究在神經網路和其他演算法中加入物理約束,以便它們能夠被用於類似這樣的目的。

  侷限3——資料

這是最明顯的限制。模型喂得不好,輸出結果就不好,主要表現為兩種方式:缺乏資料和缺乏優質資料。

缺乏資料

許多機器學習演算法在給出有用結果之前需要大量的資料,一個好的例子就是神經網路。神經網路是需要大量訓練資料的資料餵養機器。網路的架構越大,產生可用結果需要的資料就越多。重複使用資料是不好的想法,一定程度上資料增強是有用的,但是有更多的資料往往是更好的解決方法。

如果可以獲得資料,那就用上。

缺乏優質資料

雖然看上去相似,這種情況和上述情況也是不同的。我們來想象一下,你認為你可以透過給神經網路放入1萬個生成的假資料來矇混過關,當你把它們放進入的時候,會發生什麼?

網路會自己訓練自己,當你用一組沒見過的資料測試網路的時候,效果就不會好:你有了資料,但是資料的質量沒有達到標準。 

同樣地,缺乏優質的特徵會導致演算法表現不佳,缺乏優質的正確標註資料也會限制模型的能力。沒有一家公司願意使用比人工水平誤差還大的機器學習模型。

類似地,將在一種情況下一組資料訓練出地模型應用於另一種情況,效果並不相當。目前為止我發現最好的例子,就是乳腺癌預測。

胸部X光資料庫包含了大量照片,但是近幾年這些資料庫面臨一個共同的引發熱議的問題——幾乎所有的X光片都來源於白人女性。這聽起來不像什麼大事,但實際上,因為檢測和獲取醫療的差異等各種因素,黑人女性死於乳腺癌的機率已達到了42%。因此,主要基於白人女性訓練出的演算法,對黑人女性並不友好。

在這個例子裡,需要的就是在訓練集中增加更多黑人病人的 X 光片數量。更多與導致這42%增加的相關特徵,以及透過相關性進行資料分層的更客觀的演算法。


  侷限4——誤用

和前面第二個討論的侷限性相關,不管是自然界中的確定性問題還是統計性問題,人們盲目地使用機器學習來嘗試分析系統,於是形成了所謂的“學術研究中機器學習的危害”。

在侷限 2 中討論原因的時候提到,將機器學習應用於統計性系統是可行的,但演算法不會學習兩個變數間的關係,也不知道何時違背了物理定律。我們只是給網路一些輸入和輸出,告訴它們去學習聯絡——就像一個人將字典又用文字翻譯一遍,演算法只是掌握簡單的基礎物理。

對於統計性(隨機)系統,情況就不太明顯。機器學習用於統計性系統的危害主要有兩種表現形式:

  • P 值篡改

  • 分析範圍

P 值篡改

當一個人可以獲得大量資料,可能上百、上千,甚至上百萬的變數,就不難發現顯著性統計結果(假設大多數研究設定的顯著性水平 p<0.05)。這通常為導致偽相關的發現,這些偽相關是從 P 值篡改獲取的(檢視大資料,直到發現統計顯著相關)。這些並不是真正的相關,只是對測量噪聲進行的響應。

這已導致個體透過大資料集在統計顯著相關性上“釣魚”,把它們偽裝成真相關。有時候,這只是無意的失誤(這種情況下,科學家需要更好地訓練)。但另外一些時候,被研究員用來增加發布論文的數量——即使在學術世界,競爭也是非常激烈的,人們為了提升指標無所不用其極。

分析範圍

統計模型和機器學習的分析範圍存在本質區別——統計模型本質是確定性的,機器學習本質是探索性的。

我們可以把確定性分析和模型看成某人的博士課題或研究領域。想象一下,你和一個顧問合作,試著建立一個理論框架來學習一些真實世界的系統。這個系統有一組受其影響的預定義特徵,並且,在仔細設計實驗和開發假設後,可以執行測試以確定假設的有效性。

另一方面,探索性缺乏和確定性分析的相關的一些特點。事實上,在真正大量資料和資訊的情況下,由於資料的巨大體量,確認性方法完全無法使用。換言之,在存在上百個、上千個,乃至上百萬個特徵的情況下,根本不可能仔細地佈置一組有限的可測試假設。

因此從廣義上講,在有大量資料和可計算負責特徵的情況下,機器學習演算法和方法是探索預測模型和分類的最佳選擇。一些人認為它們可以用於“小”資料,但為什麼在經典的多變數統計方法這樣做時,資訊更多呢?

機器學習是一個領域,很大程度上解決了來自資訊科技、電腦科學等領域的重要問題,這些問題既有理論性的也有應用問題。正如此,機器學習和像物理、數學、機率論、統計學等領域也相關,但它也確實是一個獨立的領域。機器學習領域不會受其他學科提出問題的影響。大多是機器學習專家和從業者提出的解決方法都犯了嚴重錯誤...但他們還是完成了工作。

  侷限5——可解釋性

可解釋性是機器學習的主要問題之一。一家人工智慧公司試圖向一家只使用傳統統計方法的企業講解,但如果他們認為模型不可解釋,就可以停止了。如果你不能向客戶確保你明白演算法是如何得到結果的,那如何讓他們信任你和你的專業度?

正如《商業資料探勘——機器學習視角》中所言:

“在商務專案中,如果機器學習的結果是可解釋的,那麼商業經理人會更傾向於機器學習的推薦。”

除非可以解釋這些模型,不然它們顯得無能為力,而且人類解釋過程遵守的規則,遠遠超出技術能力。因此,可解釋性成為機器學習應用於實踐需要實現的一個重要指標。

特別地,興起的組學科學(基因組學,蛋白質組學,代謝組學等)已經成為機器學習研究者的主要目標,因為這些科學對大型和有意義資料庫具有依賴性。然而,儘管取得了明顯的成功,但他們的方法缺乏可解釋性。

  總結及Peter Voss' 列表

不可否認,在人工智慧開闢了大量有前景機會的同時,也導致了一種被稱為“人工智慧解決主義”的心態的出現。這種心態是一種哲學,假定資料足夠多,機器學習演算法就可以解決所有的人類問題。

希望我在文中清楚表示了在目前情況下機器學習存在的一些限制,從而防止一些情況的發生。神經網路永遠不會告訴我們如何做一個好人,至少現在不會,也不會理解牛頓運動定律和愛因斯坦相對論。

機器學習基礎理論——計算學習理論裡也存在基本限制,主要是統計限制。我們已經討論了分析範圍和 p 值篡改危害的相關問題,這些會帶來虛假結論。還有結果可解釋性的問題,如果不能讓客戶和投資者確信他們的方法是準確可信的,就對商業會產生消極影響。

我己經在文章內大量介紹了人工智慧的最重要的侷限,最後,我會把Peter Voss’在 2016 年 10 月釋出的文章列一張表,整理更全面的關於人工智慧的侷限。雖然目前在細小領域內主流技術是非常強大的,但它們通常會列出部分或所有約束列表,我在這裡進行完整引用:

  • 每個特定的應用都需要經過專門訓練

  • 需要大量手工標記的結構化的資料

  • 學習通常必須要受監督:訓練資料必須被標記

  • 需要冗長的離線/批次訓練

  • 不要實時地以增量或互動的方式學習

  • 遷移學習、模型重複使用和整合的能力差

  • 系統不透明,很難進行除錯

  • “長尾”效應難以稽核和保證

  • 它們編碼相關性,而不是因果關係或本體論關係

  • 實體之間不進行實體或空間的編碼

  • 只能處理自然語言裡非常侷限的部分

  • 不適合高層次,象徵推理或計劃

話雖如此,機器學習和人工智慧將繼續為工業帶來革命,而且在未來幾年只會變得更加普及。雖然我建議大家最大限度地利用機器學習和人工智慧,但我也建議你記住手裡工具的侷限性——畢竟,沒有什麼是完美的。



來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2654080/,如需轉載,請註明出處,否則將追究法律責任。

相關文章