AI專家Marcus質疑深度學習:面臨十大挑戰(含參考文獻)

深度學習世界發表於2018-01-04

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

夏乙 若樸 安妮 編譯整理
量子位 出品 | 公眾號 QbitAI

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

多年堅持為深度學習潑冷水的紐約大學心理學教授馬庫斯老師(Gary Marcus),今天終於寫了一篇長長的文章,將自己的對深度學習的看法全面、系統地闡述了一遍。

在他長達27頁(含參考文獻)的文章“深度學習的批判性評價”中,馬庫斯回顧了深度學習這5年來的復興歷程,更重要的是,指出了深度學習目前面臨的十大挑戰。

這篇論文Deep Learning: A Critical Appraisal釋出在arXiv上
地址:https://arxiv.org/abs/1801.00631

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

 Gary Marcus

馬庫斯身兼暢銷書作家、人工智慧領域創業者、紐約大學心理學和神經科學教授等多重身份,還在他的公司Geometric Intelligence被Uber收購後,在Uber擔任過AI實驗室的負責人。

他關於深度學習侷限性的論述,可以追溯到2012年這波浪潮剛剛回歸的時候。最近,他依然活躍,和LeCun辯論、在哈薩比斯講AlphaZero時提出質疑,觀點都很犀利。

量子位將馬庫斯最新論文中的要點梳理、介紹如下(跳過了深度學習科普部分):


深度學習的侷限始於我們生活中的一個反差:我們所生活的世界,資料從來都不是無限的。而依賴於深度學習的系統,通常必須泛化到它們見過的特定資料範圍之外,可能是詞的新發音、陌生的影像,在這些地方,資料遠稱不上“無限”,形式證明保障高質量的能力更是侷限。

我們可以認為泛化有兩類,一類是已知樣例之間的插值,另一類是越過訓練樣例邊界的外推。

要讓神經網路很好地泛化,通常必須有大量的資料,而且測試資料必須和訓練資料相似,這樣才能在舊答案之間插入新答案。在2012年Hinton帶領學生們奪取ImageNet冠軍的論文(Krizhevsky, Sutskever, & Hinton, 2012)中,訓練一個6億引數、65萬節點的9層卷積神經網路,用了來自1000個不同類別的,大約100萬個不同樣例。

這樣的蠻力在ImageNet那樣的有限世界中很管用,所有刺激物都能被分到一個類別中。在語音識別那種穩定的世界中也不錯,樣例都能以一致的方式被對映到有限的語音類別上。但是,深度學習還是無法被視為人工智慧的通用解決方案,這有很多原因。

現在的深度學習系統,面臨著這10大挑戰

640?wx_fmt=jpeg

1. 截至目前,深度學習依然對資料很飢渴

那些抽象的關係,人類依靠明確的定義,很容易就能學會。但深度學習不具備這種通過語言描述的清晰定義來學習抽象概念的能力,在有成千上萬、上百萬甚至幾十億訓練樣例的時候,才最好用。

在學習複雜規則這件事上,人類比深度學習系統高效得多。

Geoff Hinton也在最近的Capsule Networks論文中,表達了對深度學習系統依賴於大量標註資料這個問題的擔憂。

2. 截至目前,深度學習還很膚淺,遷移能力有限

要知道,“深度學習”中的“深”,指的是技術上、架構上的性質,也就是堆疊了很多隱藏層。這種“深”,並不是說它對抽象的概念有深刻的理解。

比如說DeepMind在用深度強化學習玩雅達利“打磚塊”遊戲的那項研究說,“在240分鐘的訓練後,(系統)發現在牆上打一條隧道是獲取勝利的最有效方法。”但實際上,系統並不知道什麼是隧道、什麼是牆,它所學會的,只是特定場景下的一個特例。

這可以通過遷移測試來檢驗,也就是給深度強化學習系統提供一些和訓練環境有細微差別的場景,看它們表現如何。對場景稍加改動,比如說調整球拍的高度、在螢幕中間加一道牆,DeepMind用來打雅達利遊戲的升級版演算法A3C就無法應對。

系統沒有學到“牆”的概念,它只是在一小類充分訓練的場景中,逼近了“打破牆”這個行為。深度學習演算法抽象出的模式,也通常比它們看起來更加膚淺。

3. 截至目前,深度學習還不能自然處理層級結構

喬姆斯基不斷地強調,語言有著層級結構,大的結構部件是由小部件遞迴構成的。但是,當前大多數基於深度學習的語言模型都將句子視為詞的序列。在遇到陌生的句子結構時,迴圈神經網路(RNN)無法系統地展示、擴充套件句子的遞迴結構。

這種情況在其他需要複雜層級結構的領域也是一樣,比如規劃和電機控制。

而深度學習學到的各組特徵之間的關聯是平面的,沒有層級關係,是一個核心問題。

4. 要用深度學習搞定開放式推理,仍需努力

當系統無法呈現“John promised Mary to leave”和“John promised to leave Mary”之間的細微差別,也就無法推斷出誰要離開誰,或者接下來會發生什麼。

在史丹佛問答資料集SQuAD上,如果問題的答案包含在題面文字里,現在的機器閱讀閱讀理解系統能夠很好地回答出來,但如果文字中沒有,系統表現就會差很多。也就是說,現在的系統還沒有像人類那樣的推理能力。

雖然這方面也有一些研究,但目前還沒有深度學習系統能基於現實知識來像人類那樣準確地進行推理。

5. 截至目前,深度學習還不夠透明

過去幾年來,神經網路的“黑箱”性質一直很受關注。但是這個透明性的問題,至今沒有解決,如果要把深度學習用在金融交易、醫學診斷等領域,這是一個潛在的不利因素。

6. 深度學習還未與先驗知識結合

很大程度上正是因為這種不同命,先驗知識很難整合到深度學習系統中。

機器學習領域中有不少像Kaggle上那樣的競賽,這些競賽通常要求參賽者在給定的資料集中取得最佳結果,問題需要的所有相關輸入和輸出檔案都被整齊地打包好了。問題是,生活不是一場Kaggle競賽,孩子們無法在一個字典中得到打包好的所有需要的資料,只能通過現實世界中零星的資料持續學習。

因為缺少先驗知識,深度學習很難解決那些開放性問題,比如怎樣修理一輛繩子纏住輻條的自行車?我應該主修數學還是神經科學?這些看似簡單的問題,涉及到現實世界中大量風格迥異的知識,沒有哪個資料集適用於它們。

這也說明,如果我們想讓AI的認知靈活性達到人類水平,需要不同於深度學習的工具。

7、截至目前,深度學習還不能區分因果和相關關係

粗略的說,深度學習系統,學習的是輸入和輸出之間複雜的相關性,但是學習不到其間的因果關係。

一個深度學習系統可以很容易的學到:小孩的身高和詞彙量是相互關聯的。但並不掌握身高和詞彙量之間的因果關係,其實我們很容易知道,長高並不見得增加詞彙量,增加詞彙量也不會讓你長高。

因果關係在另外的AI方法中是核心因素,但深度學習這個方向上,很少有研究試圖解決這個問題。

8、深度學習假定世界大體穩定,但實際上並不是這樣

深度學習的這套邏輯,在高度穩定的環境下表現最佳,例如下棋這種博弈,其中的規則不會改變,但在政治和經濟生活中,不變的只有改變。

如果你用深度學習去預測股價,很有可能重蹈Google用深度學習預測流感的覆轍。期初Google乾得很好,但是完全沒有預測到後來的流感高發季到來。

9、截至目前,深度學習只是一種近似,不能完全相信其答案

深度學習在一些特定領域表現出色,但也很容易被愚弄。

已經有很多這方面的研究了,只需要做一些簡單的手腳,就能讓同一副圖片徹底搞蒙深度學習系統。有時候甚至不用動手腳,它們自己就能認錯。

比如認錯停車標誌、烏龜變槍、沙丘變裸體等,你們可能都見過了。

10、截至目前,深度學習難以工程化

最後一個問題,深度學習很難穩健的實現工程化。

很難保證機器學習系統在一個新的環境下有效工作。此前Leon Bottou還把機器學習與飛機建造進行過比較,他指出雖然飛機結構複雜,但可以通過簡單的系統入手逐步構建出複雜系統。機器學習系統就無法做到這一步。

而Peter Norvig也曾表示,機器學習與經典的程式設計相比,仍然缺乏漸進性、透明性和可調式性,這讓它在實現穩健性方面面臨挑戰。

https://arxiv.org/ftp/arxiv/papers/1801/1801.00631.pdf

在文章的最後,馬庫斯老師又提到了他2012年在《紐約客》寫下的那篇略帶悲壯的專欄文章《“深度學習”是人工智慧領域的一次革命嗎?》,歡迎回顧~

https://www.newyorker.com/news/news-desk/is-deep-learning-a-revolution-in-artificial-intelligence

640?wx_fmt=png

這篇文章中提到,很可能“深度學習僅僅是構建更大智慧機器的一部分”,儘管深度學習在語音識別、機器翻譯、棋類遊戲等特定領域已經出現大的進展,儘管基礎設施、資料和可用算力數量的增長也讓人印象深刻,但許多五年前提出的憂慮現在依然存在。

他還提到了越來越多的學者帶著不同的視角面對這些問題,並開始強調類似的限制。以及早先就開始關注這些問題前輩們,比如Brenden Lake、Marco Baroni、Francois Chollet、Robin Jia、Percy Liang、Dileep George和Pieter Abbeel等人。

這些前輩中,最受關注的當屬Geoff Hinton,他已經足夠勇敢重新考慮自己的信仰。去年8月,Hinton在美國媒體Axios的採訪中表示“深深懷疑”反向傳播,並開始擔心這種方法過於依賴標記資料集。同時,Hinton建議“可能必須創造全新的方法了”。

他說:“我期待這讓Hinton興奮的領域接下來會發生什麼。”

他的置頂Twitter,也是對Hinton的贊同。


—  —

640?wx_fmt=jpeg0?wx_fmt=gif

640?wx_fmt=png

點選下方“閱讀原文”瞭解【大資料實驗平臺】↓↓↓

相關文章