關於人工智慧的誤導性資訊氾濫 - thegradient

banq發表於2019-12-02

媒體通常傾向於報導人工智慧或奈米技術領域中每一個微小的進步,這是一次巨大的勝利,它將很快從根本上改變我們的世界。
當然,部分原因是因為公眾喜歡革命的故事,對報導漸進式增長方面感到疲倦打哈欠。但是研究人員通常是同謀,因為他們過於依賴於宣傳,而這會對他們的資金甚至薪資產生重大影響。在大多數情況下,媒體和相當一部分研究人員都對這種現狀感到滿意,在這種現狀中,源源不斷的結果首先被大肆宣傳,然後被悄悄地遺忘。
考慮一下過去幾周的三個獨立結果,這些結果在主要媒體上以根本上具有誤導性的方式報導。
(具體誤導報導點選標題見原文)
......

不幸的是,過度誇大的AI問題超出了媒體本身。實際上,幾十年來,自AI誕生以來,許多(儘管不是全部)領先的AI人士都在煽動炒作。
這可以追溯到早期的創始人,他們認為我們現在所說的人工智慧(AGI)距現在只有幾十年了。1966年,麻省理工學院AI實驗室著名地為傑拉爾德·薩斯曼(Gerald Sussman)解決了夏季解決視力的問題。眾所周知,機器視覺在五十年後仍未得到解決。在首次樂觀的預測釋出六十年後,通用AI似乎仍要走幾十年。
這種趨勢在現代時代仍在繼續。以下是一些來自最近的AI歷史的例子,來自一些最著名的當代人物
(具體例子點選標題見原文)
同時,對工作被歪曲的調查人員的回應通常是沉默,甚至是默許。Open AI的首席科學家llya Sutskever在推特上說:“經濟學家採訪了GPT-2,而這次採訪才有意義”。當我問到他是否支援《經濟學人》採訪中的例子很明顯之後,是否支援他的評論,他沒有回應。

研究社群的其他習慣進一步導致了一個不準確的AI敘事。例如,DeepMind經常撰寫論文,對工作的潛力充滿熱情,但缺乏關於潛在限度的章節,這些章節是大多數嚴肅科學工作的結論章節的主要內容。
取而代之的是,他們經常透過邀請推理來爭論,暗示他們正在努力解決棘手的問題和嚴峻的挑戰,這暗示著他們所使用的技術也應該解決其他嚴峻的挑戰-而不考慮其他問題,例如自然問題。語言理解與他們一直關注的遊戲的性格差異很大。
他們在AlphaGo上的自然論文 和《星際爭霸》 一樣所有人都遵循這一策略,基本上沒有討論潛在的限制。
仁慈的是,並非該領域的所有人都誇大了他們的工作。在過去一年左右的時間裡,我見過Pieter AbbeelYoshua Bengio進行了精彩平衡的演講,他們都指出深度學習(和深度強化學習)做得很好,但同時又明確指出了未來的挑戰,並直截了當地承認了我們還需要走過多遠距離。(Abbeel強調了實驗室工作與可以在現實世界中工作的機器人之間的差距,Bengio強調了必須納入因果關係)。

誤導使得決策者和公眾很容易感到困惑,因為偏見往往是對結果的高估而不是對結果的低估,公眾開始擔心在可預見的將來將不會存在的一種AI(取代許多工作)。

過度承諾的風險
對AI的炒作讓每個人都受益,不是嗎?公眾的熱情意味著投入更多的研究資金,更多的人致力於AI。如果有更多的錢和更多的人,我們將更快地獲得人工智慧。有什麼害處?
許多人會過度捕撈特定的水域,在短期內為自己生產更多的魚,直到整個魚群崩潰,所有人都受苦。
在AI中,風險是這樣的:如果以及當公眾,政府和投資界認識到他們被忽悠時,對AI的優缺點不切實際的描述與現實不符,那麼新的AI冬季可能會開始。(第一次出現在早先的炒作和失望週期之後的1974年。)
我們已經看到了許多事件,事後看來可能是預兆:
(具體事件點選標題見原文)

目前,政府,大公司和風險投資家正在對AI進行大量投資,主要是深度學習。如果他們開始意識到一種過分樂觀的模式,那麼整個領域可能會遭受打擊。如果無人駕駛汽車和對話機器人遲到一兩年,沒問題,但是無人駕駛汽車,醫療診斷和對話式AI的專案完成截止期限越長,新AI冬季的風險就越大。

推薦建議
總結一下,關於AI的錯誤資訊很普遍。儘管過分報導並不普遍,但即使是著名的媒體也常常歪曲結果。公司利益經常導致這個問題。個別研究人員,甚至某些最傑出的研究人員有時也會這樣做,而當他們的結果被誤解時,更多的研究人員則靜靜地坐在旁邊,而沒有公開澄清。
錯誤的資訊並非無處不在-一些研究人員直截了當地指出侷限性,一些報導準確地報導了一些侷限性,並誠實地承認了侷限性,但是隨著革命性的發展,解釋每個增量進步的總體趨勢是普遍的,因為它適合一個有趣的敘述勝利的象徵。
最終,最終的結果可能會破壞該領域,在最初幫助激發公眾利益之後反而引發了AI冬季。
Ernie Davis和我提出了六項建議:

  • 除去這些言論,人工智慧系統實際上在做什麼?“閱讀系統”真的閱讀嗎?
  • 結果有多普遍?(在鳳凰城工作的驅動系統在孟買也能工作嗎?魔方系統在開啟瓶子時能工作嗎?需要再培訓多少?)
  • 有沒有感興趣的讀者可以自己探索的演示?
  • 如果說人工智慧系統比人類更好,那麼又好多少呢?(相比之下,低薪工人缺乏良好表現的動力可能無法真正探究人類能力的極限)
  • 實際上,成功完成特定任務可以使我們邁向建立真正的AI多遠?
  • 系統有多健壯?無需大量重新培訓,它是否可以與其他資料集一樣好用?AlphaGo在19x19的板上可以正常工作,但是需要重新訓練才能在矩形板上玩;缺乏轉移正說明了這一點。

在每份研究報告和媒體報導的末尾,有一點建設性的自我批評,可能對保持期望的實現大有幫助。

 

相關文章