馬庫斯:DeepMind新出的機器心智網路不錯,但有誤導性

量子位發表於2018-02-26
原作 Gary Marcus
Root 編譯
量子位 報導 | 公眾號 QbitAI

DeepMind最新出的論文Machine Theory of Mind還不錯(fascinating)。

但又犯了哲學上的錯誤。這已經不是第一次了。

這是馬庫斯昨天在Medium上對DeepMind新文章給出的評價。

一個月以前,馬庫斯還寫過篇長文談到這個問題。

雖然DeepMind(以下縮寫為DM)官方表明在造圍棋演算法的過程中,並沒有用到人類的知識。

但馬庫斯指出,DM圍棋演算法裡所用到的蒙特卡洛樹搜尋就是基於以往在圍棋程式上的積累。

“而DM他們的工作卻傾向於放大人工智慧後天自我塑造作用,”馬庫斯說,“這有很強的誤導性。”

這次機器心智理論的文章,說的是可以自動學會給其他智慧體的行為建模。

但馬庫斯認為,這和以前的AlphaGo的工作非常相似,DM悄悄地搭建了非常多的前提先決條件,包括:

1)預設其他智慧體的存在是個事實;
2)不同的智慧體可以有不同的觀念;
3)這些觀念有存在錯誤的可能(觀念可以通過系統的特定的輸出節點看出來)。

所以說,他們已經對這個心智理論的底層進行硬編碼了。

為了更好的度量,他們針對牆、物體、智慧體分別搭建了三個極其不同的具有代表性的平面。

上述所有操作都能在文章的正文和附錄中找到,但是卻沒有在摘要和討論裡大大方方地說出來(馬庫斯os:搞得那麼隱蔽是鬧哪樣)。

尤其值得重視的是,這次預置的先天知識和框架和之前AlphaGo的是不一樣的。

AlphaGo依賴的是蒙特卡洛樹搜尋,而ToMNet,心智理論神經網路,是依賴於能把單個智慧體的已有知識和分析區分開的架構模組。

正如馬庫斯1月17號的那篇文章裡的預測(還有1月2號那篇深度學習)一樣,DeepMind當下的工作會出現大量不承認底層預置知識重要性的現象。

(演算法)要想在遊戲中玩到最後,程式設計的人越要重視(演算法)底層的能力。

可惜,不同的任務之間(對演算法)有不同的底層要求。

棋盤遊戲要用蒙特利樹搜尋,理解語言要用句法分析樹,理解3D場景要用幾何圖元(圖形軟體包中用來描述各種圖形元素的函式,或簡稱為圖元,primitive),那些抱團才能解決的問題分析要用到機器心智理論神經網路。

總而言之,所有這些預置的知識都說明了,人工智慧不可能是一塊白板。更準確地來說,是像伊曼努爾·康德(Immanuel Kant)所預見到的那樣,具有時空上的多樣性。

只有當程式設計圈意識到知識原始積累的重要性,造出來的系統才能成事兒。不承認預置知識的貢獻,還一個勁兒地稱“學習系統”,強調演算法所有能力都是後天習得的,只會進一步誤導大家。

馬庫斯希望AI界的人能更多地從底層方面,原則上,開始意識到機器預置知識(innate machinery)的重要性。

最後,附編譯來源,
https://medium.com/@GaryMarcus/deepminds-misleading-campaign-against-innateness-a2ea6eb4d0ba

你可能感興趣:
馬庫斯現場駁哈薩比斯,AlphaZero並非從零學習
馬庫斯發arXiv長文,論證AlphaZero為什麼不是塊白板
馬庫斯認為深度學習存在十大挑戰

加入社群

量子位AI社群13群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot5入群;


此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。


進群請加小助手微訊號qbitbot5,並務必備註相應群的關鍵詞~通過稽核後我們將邀請進群。(專業群稽核較嚴,敬請諒解)

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。

640?wx_fmt=jpeg

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態



相關文章