Geoff Hinton:我反對谷歌軍事專案,論文評審機制正在阻礙創新

機器之心發表於2018-12-15
作為人工智慧先驅者、Google Brain高管和多倫多大學教授,Geoffrey Hinton對於谷歌參與五角大樓AI軍事專案的態度如何?在最近的一次訪談中,他終於告訴人們:我反對!此外,Hinton還對人工智慧在創新上的挑戰等問題發表了意見。看得出,Hinton對於人工智慧的未來非常有信心,他也希望研究者們能夠將眼光放得更加長遠。

20 世紀 70 年代初期,Geoff Hinton 開始做簡單的數學模型,模仿人腦神經元視覺理解世界的過程。之後數十年,人工神經網路仍然是一門不實用的技術。但是 2012 年,Hinton 和他的兩名本科生使用神經網路實現了計算機影像目標識別準確率的大幅提升。之後六個月內,谷歌收購了這三名研究者創辦的創業公司 DNNresearch。

現在,這項技術已經成為所有大型科技公司未來規劃的重中之重。

Geoff Hinton:我反對谷歌軍事專案,論文評審機制正在阻礙創新

「作為谷歌高管,我不應該公開抱怨五角大樓專案,因此我私下裡抱怨。」Geoff Hinton 說。

NeurIPS 2018 期間舉辦了人工智慧 G7 大會,來自世界頂尖工業化經濟體的代表討論如何鼓勵 AI 的優勢,並最小化其負面影響(如工作職位減少和學會歧視的演算法)。Geoff Hinton 參加了這次會議,《連線》對他進行了訪問。訪問內容如下:

Wired:加拿大總理賈斯丁·特魯多在人工智慧 G7 會議上說,需要更多研究來應對人工智慧帶來的倫理挑戰。你怎麼認為?

Geoff Hinton(下稱 GH):我一直很擔心致命自主武器的濫用。我認為應該設立類似《日內瓦公約》的法規來禁止它們的使用,就像禁用化學武器那樣。即使並非所有國家或地區都簽署這樣的條約,但它可以作為一種道德旗幟。你會注意到誰沒有簽署它。

Wired:超過 4500 名谷歌員工簽名抗議抗議五角大樓合同。谷歌稱該專案並非用於攻擊目的。你是否簽署了抗議書?

GH:作為谷歌高管,我認為我不應該公開抱怨它,因此我私下裡抱怨。我沒有簽署抗議書,而是和谷歌聯合創始人 Sergey Brin 吐槽了幾句。他說他對此也很苦惱。還好現在谷歌放棄競標五角大樓的合同。

Wired:谷歌的領導者決定僅完成合同,而不是續約合同。他們釋出了關於 AI 應用的準則,保證不將技術用於武器。

GH:我認為谷歌做出了正確的決定。將來或許所有事情都需要雲端計算,我們很難知道在哪兒畫線,一定程度上畫線這件事是隨意的。我很高興谷歌畫下了這條線。這些準則對我來說意義重大。

Wired:人工智慧在日常生活中也引發了一些倫理問題。例如,用軟體為社會服務或醫療做決策。我們應該注意什麼呢?

GH:在讓技術運轉這方面我是專家,但在社會政策方面我是外行。我對此持有技術專業見解的地方在於,監管結構是否堅持讓你解釋 AI 系統的執行原理。我認為這將是災難。

人們無法解釋自己做很多事的工作原理。當你僱傭某人時,決策是基於你能夠量化的所有事物,以及所有本能直覺。人們不知道自己是怎麼決策的。如果你讓人解釋自己的決策,你就是強制他們編故事。

神經網路也有類似的問題。當你訓練神經網路時,它會學習從訓練資料中提取的十億個表示知識的數字。如果你輸入一張影像,它會輸出正確的決策,比如這是不是行人。但是如果你問它「為什麼你這麼認為?」,要是有用於決定一張影像中是否包含行人的簡單規則,那這個問題早就解決了。

Wired:我們怎麼知道何時應該信任這些系統呢?

GH:你應該基於執行效果來管理它們。執行實驗來看是否存在偏差,或者它會不會殺人。拿自動駕駛汽車來說,我認為人們逐漸接受它了。即使你不怎麼了解自動駕駛汽車的運作原理,但如果自動駕駛汽車的事故率大大低於人類駕駛汽車,那麼這就是件好事。我認為我們必須像對待人類一樣對待人工智慧系統:只看它們的執行效果,如果它們不斷遇到困難,那你可以說它們不夠好。

Wired:你曾經說過,思考大腦的運作原理對你在人工神經網路方面的研究有所啟發。人類大腦透過由大量突觸聯結而成的神經元網路從感官中獲取資訊。人工神經網路透過由權重連線的數學神經元網路獲得資料。在上週釋出的一篇論文《Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures》中,你和幾位共同作者認為我們應該進一步揭示人腦中的學習演算法。為什麼?

GH:人腦與大部分神經網路解決的問題大相徑庭。人腦中大約有 100 萬億個突觸,是人工神經網路權重數量的 10,000 倍。人腦使用大量突觸儘可能多地從幾個 episode 中學習。而深度學習擅長利用神經元之間的連線(比人腦突觸少得多)來學習,且它還需要有很多 episode 或樣本。我認為人腦不考慮將大量知識擠到少量連線中,它考慮的是用大量連線來提取知識

Wired:要使機器學習系統更多地按人腦的方式運作,我們應該怎麼做?

GH:我認為我們需要轉向不同型別的計算機。幸運的是我有一臺。

(Hinton 從錢包裡掏出一個大的矽晶片,是 Graphcore 公司的一款晶片原型。)

我們用來執行神經網路的幾乎所有計算機系統,甚至谷歌的特殊硬體,都使用 RAM 來儲存正在執行的程式。將神經網路權重從 RAM 中取出以便處理器使用需要耗費大量能源。因此每個人必須確保自己的軟體能夠獲取權重,軟體還會多次使用權重。這是一筆巨大的成本,而你對每個訓練樣本都必須這麼做。

在 Graphcore 晶片上,權重儲存在處理器上的快取中,而不在 RAM 中,這樣權重就無需移動。這樣很多事就比較好探索了。我們或許將得到這樣的系統:擁有一萬億權重,而每個樣本只能接觸其中十億權重。這樣就更像大腦的規模了。

Wired:近期對 AI 和機器學習日益高漲的興趣意味著對相關研究的資助前所未有。該領域的快速增長是否也帶來新的挑戰?

GH:社群面臨的一項巨大挑戰是,如果現在你想發表一篇機器學習論文,那麼論文中必須有圖表,表中列舉不同資料集、不同的方法,且你提出的方法必須看起來是最好的那一個。如果不是,那麼這篇論文很難發表。我認為這不利於人們思考創新型想法。

現在如果你寫了一篇表達全新想法的論文,它幾乎沒有可能被接收,因為很多年輕的論文評審者壓根不理解它。或者它到了資深評審者手裡,但 ta 要評審太多論文,無法在第一輪就理解它,並認為這篇論文無意義。任何讓大腦受傷的事物都可能不會被接受。我認為這非常糟糕。

在基礎的科學會議上,我們應該追尋全新的想法。因為我們知道長期來看,全新想法要比小的改進具備更大的影響力。現在我們的做法顛倒了,我認為這是最大的弊端。

Wired:這會導致該領域的發展脫離正軌嗎?

GH:只需要等待幾年,失衡會糾正失衡。這只是暫時的。公司忙於教育員工,大學忙於教育學生,大學終將僱傭更多該領域的教授,它會自行迴歸正確的道路。

Wired:一些學者提醒,當前的人工智慧炒作將導致「AI 寒冬」,就像 1980 年代那樣,由於進展無法滿足期望,而導致興趣和資金的乾涸。

GH:不會進入「AI 寒冬」,因為 AI 已經進入你的手機了。在之前的「AI 寒冬」中,AI 並沒有成為人們日常生活的一部分。而現在它是了。

原文連結:https://www.wired.com/story/googles-ai-guru-computers-think-more-like-brains/

相關文章