牛津教授吐槽DeepMind心智神經網路,還推薦了這些多智慧體學習論文
夏乙 發自 凹非寺
量子位 出品 | 公眾號 QbitAI
DeepMind最近又有一篇論文刷了屏:
在Machine Theory of Mind中,DeepMind提出了“機器心智理論網路”ToMnet,讓AI智慧體能理解自己和周圍智慧體的情緒、意圖、慾望等等。他們在論文摘要中這樣陳述這篇論文的價值:推進可解釋性AI發展的重要一步。
論文地址:https://arxiv.org/abs/1802.07740
和歷史上的每一篇刷屏論文一樣,flag立得太高,當然會招來反對。
這次提出質疑的,不是我們熟悉的馬庫斯老師了,而是牛津大學電腦科學專業副教授希蒙(Shimon Whiteson)。
希蒙上周讀完這篇論文之後,大概心裡堆積了太多的槽點,於是連發10條Twitter想要一吐為快。他說:
我其實很喜歡這篇論文的想法,用元學習方法來為對手建模。但是,深度學習圈寫論文的那些毛病,這篇論文就是個極度惡劣的樣本!
說起“深度學習圈那些毛病”,你們大概能想到一個老生常談的問題:Over Claim。
重要一步?
希蒙主要針對的,就是DeepMind所宣稱的“重要一步”。
“重要一步”這樣的定位,就算那些提出新想法、新概念、新問題的開創性論文們,用起來也是小心翼翼,何況DeepMind這一篇,無論如何也談不上開創性。
希蒙批判這篇論文說,它沒有講理論,實驗領域簡單得跟玩兒似的,演算法上的貢獻也簡直微不足道,只不過是網路架構的一些工程性處理。那如果還能找出“重要一步”,就只能是提出了什麼重大的新想法吧?
想法新不新,要看“相關研究”那部分。可是這篇論文它……沒有Related Work部分……
深度學習健忘症
這也就牽扯到了深度學習圈外人對圈裡人的另一大意見:貴圈寫論文之前就不會讀一下相關文獻?研究者們還專門給這個問題起了個名字,叫“深度學習健忘症(Deep Learning Amnesia)”。
回到DeepMind這篇論文字身。希蒙認為,這篇論文主要講的是多智慧體學習領域一個並不冷門的主題:對手建模(opponent modelling)。但是,全文從頭到尾都沒有提到這個概念。
在多智慧體學習領域,有一種歷史悠久的著名方法,叫做虛構對策(fictitious play),DeepMind提都沒有提;多智慧體環境中的對手建模,有一個完整的推理框架,叫做互動式的部分可觀察馬爾科夫決策過程(Interactive POMDPs),DeepMind也完全忽略了。
希蒙老師敲黑板:同學們,隨便瀏覽一篇多智慧體學習的綜述文章,這些文獻都提到了啊!
可是DeepMind這一篇,引用的相關文獻完全跳過了這個領域,倒是談了不少心智理論和貝葉斯。
對於“健忘症”這個問題,論文一作、DeepMind研究員Neil Rabinowitz在Twitter上回復說,這些文獻他們是知道的,但是在introduction裡不知道怎麼的就忘了引用了。現在arXiv上更新的第二版論文中,已經加上了這些該引用的文獻。
“相關研究”
不過,大部分論文中都有的“相關研究”那一節,還是沒寫。
對此,有一位前來吐槽的圍觀群眾說得好:要不我們們給DeepMind眾包個“相關研究”吧?
這顯然不是個可行的解決之道,不過對於想要學習的同學們來說,也不是非要看這一篇論文嘛,多智慧體學習這個領域有不少文獻綜述可以讀。
希蒙就列出了兩篇:
A Comprehensive Survey of Multiagent Reinforcement Learning
http://ieeexplore.ieee.org/document/4445757/A Framework for Sequential Planning in Multi-Agent Settings
https://www.jair.org/media/1579/live-1579-2391-jair.pdf
圍觀群眾Katja Hofmann也貢獻了一篇:
Autonomous Agents Modelling Other Agents: A Comprehensive Survey and Open Problems
https://arxiv.org/abs/1709.08071
關於希蒙
對DeepMind開炮的希蒙是牛津大學計算機專業研究人工智慧和機器學習方向的副教授,帶領著WhiRL(Whiteson Research Lab),研究領域主要涉及強化學習、深度學習等,以及它們在機器人、遊戲、資訊檢索上的應用。
他帶領著學生們發表過不少很有名的論文,比如LipNet、比如和Pieter Abbeel合作的Learning with Opponent−Learning Awareness等等。
WhiRL實驗室合影,右四為希蒙
要詳細瞭解希蒙老師,可以去他們實驗室的主頁看看:http://whirl.cs.ox.ac.uk/
— 完 —
加入社群
量子位AI社群15群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot6入群;
此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。
進群請加小助手微訊號qbitbot6,並務必備註相應群的關鍵詞~通過稽核後我們將邀請進群。(專業群稽核較嚴,敬請諒解)
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。
量子位 QbitAI · 頭條號簽約作者
վ'ᴗ' ի 追蹤AI技術和產品新動態
相關文章
- 神經網路碰上高斯過程,DeepMind論文開啟深度學習新方向神經網路深度學習
- 並非無所不能——評DeepMind近期神經網路求解MIP的論文神經網路
- 高三學生憑神經網路論文研究網路暴力!00後也要出道了?神經網路
- 網路表述學習經典論文——DeepWalk
- 一文了解推薦系統中的圖神經網路神經網路
- 《牛津經濟論文》:研究表明學習真的使人快樂
- DeepMind釋出神經網路、強化學習庫,網友:推動JAX發展神經網路強化學習
- 看了這7篇論文,你會完全掌握卷積神經網路!卷積神經網路
- 上海紐約大學張崢教授:2017年影響力論文推薦
- 理解卷積神經網路的利器:9篇重要的深度學習論文(上)卷積神經網路深度學習
- 理解卷積神經網路的利器:9篇重要的深度學習論文(下)卷積神經網路深度學習
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- 神經網路學習參考神經網路
- ICLR 2020 多智慧體強化學習論文總結ICLR智慧體強化學習
- 關於神經網路:你需要知道這些神經網路
- 機器學習之多類別神經網路:一對多機器學習神經網路
- 人工智慧、機器學習、深度學習、神經網路的關係人工智慧機器學習深度學習神經網路
- KDD 2020 開源論文 | 圖神經網路多變數時序預測神經網路變數
- 資源 | 多倫多大學“神經網路與機器學習導論”2017年課程表神經網路機器學習
- 深度學習與圖神經網路深度學習神經網路
- 機器學習整理(神經網路)機器學習神經網路
- 【深度學習】神經網路入門深度學習神經網路
- 再聊神經網路與深度學習神經網路深度學習
- AI之(神經網路+深度學習)AI神經網路深度學習
- 卷積神經網路學習筆記——Siamese networks(孿生神經網路)卷積神經網路筆記
- 使用圖神經網路做基於會話的推薦神經網路會話
- 深度學習與圖神經網路學習分享:CNN 經典網路之-ResNet深度學習神經網路CNN
- 深度學習與圖神經網路學習分享:Transformer 整體結構深度學習神經網路ORM
- MXNET:多層神經網路神經網路
- 【深度學習基礎-07】神經網路演算法(Neural Network)上--BP神經網路基礎理論深度學習神經網路演算法
- 論文解讀 | 基於神經網路的知識推理神經網路
- 人工神經網路:競爭型學習神經網路
- 深度學習教程 | 深層神經網路深度學習神經網路
- 【深度學習】1.4深層神經網路深度學習神經網路
- 深度學習三:卷積神經網路深度學習卷積神經網路
- 漸進學習前饋神經網路神經網路
- 【卷積神經網路學習】(4)機器學習卷積神經網路機器學習
- 清華大學孫茂松組:圖神經網路必讀論文列表神經網路