深度學習該往何處走?Yoshua Bengio這麼認為

AIBigbull2050發表於2019-12-20
2019-12-19 14:08:12

選自IEEE Spectrum

作者:Eliza Strickland

機器之心編譯

參與:魔王、張倩

一個普通的深度學習模型動不動就需要十萬、百萬級的資料,但即使投餵了這麼多資料,一個自動駕駛系統也很容易被一張貼紙攻破……2019 年,我們看到深度學習受到越來越多的質疑,Gary Marcus 等批評者甚至認為,「深度學習不起作用」。在如此強烈的質疑聲中,深度學習將何去何從?2018 圖靈獎獲得者之一 Yoshua Bengio 在 IEEE 的訪談中表達了他對深度學習未來發展的看法。

他認為,AI 系統應該具備 推理、規劃和想象的能力, 因果推斷、注意力、元學習、掌握物理規律對於未來深度學習的發展都非常重要。此外,對於Gary Marcus 的質疑,Bengio 回應道,「 我關注的是解決問題需要探索什麼,而不是誰對誰錯」。

深度學習該往何處走?Yoshua Bengio這麼認為

Yoshua Bengio 是深度學習「三劍客」之一,深度學習正是如今人工智慧領域的主流。

Bengio 在蒙特利爾大學擔任教授,他在神經網路的應用方面做出了巨大貢獻,同樣重要的是,他還在神經網路無人問津的漫長 AI 寒冬(1980 年代末及 1990 年代)中堅持神經網路研究工作。

為此,他與另外兩位「劍客」——Geoffrey Hinton 和 Yann LeCun 榮獲 2018 年圖靈獎,該獎項被譽為「計算機界的諾貝爾獎」。

今天,人們對於深度學習缺陷的討論越來越多。IEEE Spectrum 與 Bengio 就深度學習領域該走向何方進行了對談,Bengio 在 NeurIPS 2019 大會上也作了類似主題的報告《From System 1 Deep Learning to System 2 Deep Learning》。

報告地址:https://nips.cc/Conferences/2019/Schedule?showEvent=15488

深度學習及其缺陷

關於對深度學習侷限性的討論,您有什麼看法?

Yoshua Bengio:很多面向公眾的會議不瞭解 AI 等學科的科研方式:我們盡力去了解目前已有理論和方法的侷限性,進而擴充套件我們的智力工具所能到達之範疇。因此,深度學習研究者正在尋找那些運轉未達預期之處,這樣我們就可以知道需要新增什麼、探索什麼了。

一些人(如 Gary Marcus)借用這一現象表達「看啊,深度學習沒用。」但事實上,像我這樣的研究者正在做的是 擴充套件深度學習的邊界。當我談到「 AI 系統需要理解因果關係」時, 我並不認為它會取代深度學習。我只是嘗試向工具箱裡多新增一些東西。

作為科學家,我關注的是解決問題需要探索什麼,而不是誰對誰錯。

您如何評價深度學習的現狀?

Yoshua Bengio:根據近二十年的進展,我認為 人工智慧的水平遠遠落後於兩歲小孩有些演算法的感知水平相當於低等動物。就允許實體探索周遭環境的工具方面,我們正在逐漸前進。

現在最大的爭論之一是:哪些元素構成更高階的認知?因果關係是其中之一,推理和規劃、想象以及信用分配(credit assignment)都是。在經典 AI 中,研究者嘗試利用邏輯和符號獲取這些元素。有些人認為經典 AI 可以實現這一目標,或者至少有一些進展。

也有一些人,比如我,認為 我們應該利用近年構建的工具建立類似於人類推理方式的功能,這實際上與基於搜尋的純邏輯系統相去甚遠。

腦啟發計算時代的到來

如何建立類似於人類推理的功能?

Yoshua Bengio:注意力機制將計算聚焦於某些元素,一組計算。人類就是這樣的,這是意識處理(conscious processing)的重要部分。當你意識到某事時,你會著重某些元素,或者某個想法,然後再轉到另一個想法上。這與標準的神經網路差別很大,後者是大規模並行處理。 注意力機制幫助我們在計算機視覺、翻譯和記憶方面實現巨大進步,但是我認為這只是另一種風格的腦啟發計算的開端

這並不表示我們解決了問題,我認為我們具備了足夠多的工具可以開始解決問題了。這並不表示會很容易。2017 年我寫了一篇論文《The Consciousness Prior》來解釋這一問題。我的幾個學生正在研究這一主題,我認為這將是一項長期工程。

還有哪些人類智慧的其他方面是您想在 AI 中複製的嗎?

Yoshua Bengio:這就要談到神經網路的想象能力了:推理、記憶和想象是人腦思維的三個方面。當你回憶過去或者暢想未來時,你就是在推理。如果你預測未來會發生一些不好的事情,你會作出一些改變,這就是規劃過程。這一過程也涉及記憶,因為你需要回顧已知的事實進而做出判斷。你從現在和過去中選出相關聯的事實。

注意力是其中的關鍵模組。比如我正在翻譯一本書。在翻譯每一個單詞時,我都要仔細檢視書中的一小部分內容。注意力允許你遠離大量無關細節,專注於相關的內容。選擇相關元素,這就是注意力所做的事情。

那麼對機器學習而言,這對應怎樣的過程呢?

Yoshua Bengio:你不用告訴神經網路需要注意什麼,這就是它的神奇之處。神經網路能夠自學,學習應對一組可能元素中的每一個元素賦予多少注意力或權重。

學習如何學習

您最近關於因果關係的研究與此有何關聯?

Yoshua Bengio:推理所使用的高階概念很可能是因果變數。你不會基於畫素推理,而是基於「門」、「門把手」、「開」、「關」這樣的概念進行推理。 因果關係對於機器學習的未來發展非常重要

這與深度學習中更關注人類思維的另一個主題相關。系統泛化(systematic generalization)是人類泛化已知概念的能力,這樣才能以從未見過的新方式連線這些概念。目前,機器學習無法做到這一點。因此你常常遇到與在特定資料集上訓練模型有關的問題。假如你在一個國家中訓練,然後到另一個國家部署,你需要泛化和遷移學習。如何訓練神經網路,使其遷移至新環境後能夠繼續良好運轉或者快速適應呢?

獲取這種適應性的關鍵是什麼?

Yoshua Bengio:元學習是現在很熱的一個話題, 元學習即學習如何學習。1991 年我就該主題寫過一篇論文《Learning a synaptic learning rule》,但直到最近我們才有足夠的算力來實現它。元學習的計算成本很高。其思路是:要想泛化至新環境,你必須練習對新環境的泛化。看起來很簡單,連孩童都一直在做這件事。小孩從一個房間到另一個房間時,環境不是靜止的,而是變化的。此時,小孩訓練自己來快速適應環境。為了高效訓練,他們利用過去獲得的知識碎片。我們正在理解這項能力,並構建工具來複制它。

對深度學習的一個批評是:需要海量資料。如果你只為一項任務訓練模型的話,那麼這話屬實。但是小孩都可以基於非常少的資料學習,他們利用之前學到的東西。但更重要的是,他們利用適應和泛化的能力。

「這些想法還不能用於工業」

這些想法會很快應用於現實世界嗎?

Yoshua Bengio:不會。這些都是很基礎的研究問題。我們仍處於研究階段。我們可以對這些想法進行 debug,轉移到新的假設,但它們無法在短時間內用於工業界。

不過,對於工業界關心的兩個實際問題,這項研究或許可以提供幫助。一個問題是構建能夠適應環境變化的穩健系統。另一個問題是:如何構建自然語言處理系統、對話系統和虛擬助手?當前最優的深度學習系統存在的問題是:基於海量資料訓練得到,但無法真正理解所處理的語言。Gary Marcus 等人藉此表示:「這可以證明深度學習無用。」而像我這樣的人會反駁:「 有意思,我們來解決這個難題吧。」

物理、語言和常識

聊天機器人如何才能變得更好?

Yoshua Bengio:最近,grounded language learning 吸引了大家的注意力。其想法是:AI 系統不應僅從文字中學習,還應該學習世界的運轉方式以及如何用語言描述世界。問問自己:如果一個孩子只通過文字與世界互動,那他能夠理解世界嗎?我認為很難。

這就涉及意識和無意識知識了,後者即我們知道但無法命名的東西。直觀物理即是一例。兩歲的小孩能夠理解直觀物理,即使他們不知道牛頓定理,也能理解重力等概念。 現在很多人嘗試構建可與世界互動並發現物理學基本規律的系統

為什麼對物理學的基本把握有助於對話?

Yoshua Bengio:語言的問題通常在於系統無法真正理解單詞所指的複雜性。以 Winograd Schema 挑戰賽中的句子為例,要想理解它們,你必須捕捉物理知識。有很多句子類似於「Jim wanted to put the lamp into his luggage, but it was too large.」(吉姆想把檯燈放進行李箱,但檯燈太大了。)你知道如果物體太大無法放進行李箱,那麼第二個小句的主語「it」一定指的是這個物體(而不是行李箱)。你可以通過單詞溝通這類知識,但這與「The typical size of a piece of luggage is x by x.」無關。

我們需要能夠理解世界的語言理解系統。目前,AI 研究者正在尋找捷徑,但是還不夠。 AI 系統還需要掌握世界如何運轉的模型



https://www.toutiao.com/i6772027984044884484/



來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2669525/,如需轉載,請註明出處,否則將追究法律責任。

相關文章