關於人工智慧的誤導性資訊氾濫 - thegradient
媒體通常傾向於報導人工智慧或奈米技術領域中每一個微小的進步,這是一次巨大的勝利,它將很快從根本上改變我們的世界。
當然,部分原因是因為公眾喜歡革命的故事,對報導漸進式增長方面感到疲倦打哈欠。但是研究人員通常是同謀,因為他們過於依賴於宣傳,而這會對他們的資金甚至薪資產生重大影響。在大多數情況下,媒體和相當一部分研究人員都對這種現狀感到滿意,在這種現狀中,源源不斷的結果首先被大肆宣傳,然後被悄悄地遺忘。
考慮一下過去幾周的三個獨立結果,這些結果在主要媒體上以根本上具有誤導性的方式報導。
(具體誤導報導點選標題見原文)
......
不幸的是,過度誇大的AI問題超出了媒體本身。實際上,幾十年來,自AI誕生以來,許多(儘管不是全部)領先的AI人士都在煽動炒作。
這可以追溯到早期的創始人,他們認為我們現在所說的人工智慧(AGI)距現在只有幾十年了。1966年,麻省理工學院AI實驗室著名地為傑拉爾德·薩斯曼(Gerald Sussman)解決了夏季解決視力的問題。眾所周知,機器視覺在五十年後仍未得到解決。在首次樂觀的預測釋出六十年後,通用AI似乎仍要走幾十年。
這種趨勢在現代時代仍在繼續。以下是一些來自最近的AI歷史的例子,來自一些最著名的當代人物
(具體例子點選標題見原文)
同時,對工作被歪曲的調查人員的回應通常是沉默,甚至是默許。Open AI的首席科學家llya Sutskever在推特上說:“經濟學家採訪了GPT-2,而這次採訪才有意義”。當我問到他是否支援《經濟學人》採訪中的例子很明顯之後,他是否支援他的評論,他沒有回應。
研究社群的其他習慣進一步導致了一個不準確的AI敘事。例如,DeepMind經常撰寫論文,對工作的潛力充滿熱情,但缺乏關於潛在限度的章節,這些章節是大多數嚴肅科學工作的結論章節的主要內容。
取而代之的是,他們經常透過邀請推理來爭論,暗示他們正在努力解決棘手的問題和嚴峻的挑戰,這暗示著他們所使用的技術也應該解決其他嚴峻的挑戰-而不考慮其他問題,例如自然問題。語言理解與他們一直關注的遊戲的性格差異很大。
他們在AlphaGo上的自然論文 和《星際爭霸》 一樣所有人都遵循這一策略,基本上沒有討論潛在的限制。
仁慈的是,並非該領域的所有人都誇大了他們的工作。在過去一年左右的時間裡,我見過Pieter Abbeel和Yoshua Bengio進行了精彩而平衡的演講,他們都指出深度學習(和深度強化學習)做得很好,但同時又明確指出了未來的挑戰,並直截了當地承認了我們還需要走過多遠距離。(Abbeel強調了實驗室工作與可以在現實世界中工作的機器人之間的差距,Bengio強調了必須納入因果關係)。
誤導使得決策者和公眾很容易感到困惑,因為偏見往往是對結果的高估而不是對結果的低估,公眾開始擔心在可預見的將來將不會存在的一種AI(取代許多工作)。
過度承諾的風險
對AI的炒作讓每個人都受益,不是嗎?公眾的熱情意味著投入更多的研究資金,更多的人致力於AI。如果有更多的錢和更多的人,我們將更快地獲得人工智慧。有什麼害處?
許多人會過度捕撈特定的水域,在短期內為自己生產更多的魚,直到整個魚群崩潰,所有人都受苦。
在AI中,風險是這樣的:如果以及當公眾,政府和投資界認識到他們被忽悠時,對AI的優缺點不切實際的描述與現實不符,那麼新的AI冬季可能會開始。(第一次出現在早先的炒作和失望週期之後的1974年。)
我們已經看到了許多事件,事後看來可能是預兆:
(具體事件點選標題見原文)
目前,政府,大公司和風險投資家正在對AI進行大量投資,主要是深度學習。如果他們開始意識到一種過分樂觀的模式,那麼整個領域可能會遭受打擊。如果無人駕駛汽車和對話機器人遲到一兩年,沒問題,但是無人駕駛汽車,醫療診斷和對話式AI的專案完成截止期限越長,新AI冬季的風險就越大。
推薦建議
總結一下,關於AI的錯誤資訊很普遍。儘管過分報導並不普遍,但即使是著名的媒體也常常歪曲結果。公司利益經常導致這個問題。個別研究人員,甚至某些最傑出的研究人員有時也會這樣做,而當他們的結果被誤解時,更多的研究人員則靜靜地坐在旁邊,而沒有公開澄清。
錯誤的資訊並非無處不在-一些研究人員直截了當地指出侷限性,一些報導準確地報導了一些侷限性,並誠實地承認了侷限性,但是隨著革命性的發展,解釋每個增量進步的總體趨勢是普遍的,因為它適合一個有趣的敘述勝利的象徵。
最終,最終的結果可能會破壞該領域,在最初幫助激發公眾利益之後反而引發了AI冬季。
Ernie Davis和我提出了六項建議:
- 除去這些言論,人工智慧系統實際上在做什麼?“閱讀系統”真的閱讀嗎?
- 結果有多普遍?(在鳳凰城工作的驅動系統在孟買也能工作嗎?魔方系統在開啟瓶子時能工作嗎?需要再培訓多少?)
- 有沒有感興趣的讀者可以自己探索的演示?
- 如果說人工智慧系統比人類更好,那麼又好多少呢?(相比之下,低薪工人缺乏良好表現的動力可能無法真正探究人類能力的極限)
- 實際上,成功完成特定任務可以使我們邁向建立真正的AI多遠?
- 系統有多健壯?無需大量重新培訓,它是否可以與其他資料集一樣好用?AlphaGo在19x19的板上可以正常工作,但是需要重新訓練才能在矩形板上玩;缺乏轉移正說明了這一點。
在每份研究報告和媒體報導的末尾,有一點建設性的自我批評,可能對保持期望的實現大有幫助。
相關文章
- 資料氾濫的利弊
- 知物由學 | 虛假色情氾濫,人工智慧可以做些啥?人工智慧
- [譯] RxJS: 避免因濫用 switchMap 而導致錯誤JS
- 美政府漏洞程式洩露:Windows攻擊氾濫成災Windows
- 短視訊平臺中明星賬號氾濫 需加強對網路短視訊平臺的監管力度
- 市場上氾濫的仙劍IP,這次大宇想再賣5億
- 關於資訊保安的
- 關於laravel Symfony\Component\HttpKerenl\Exception\Method...錯誤資訊LaravelHTTPException
- 低價“黃油”氾濫成災,steam黃金品類有套路
- 惡意註冊氾濫,暫時只開放微信註冊
- 星球大戰一觸即發,網路釣魚氾濫成災
- 亞馬遜商城假貨氾濫 “加拿大鵝”竟然來自新加坡亞馬遜
- 關於資料抓取很多新人的誤區
- 遊戲市場假量氾濫,律師教你如何有效避免損失?遊戲
- 小心Android加密貨幣雲挖礦服務!詐騙App已氾濫Android加密APP
- 關於HDFS的資料可見性
- 關於vuex的錯誤Vue
- 種草社群小紅書廣告氾濫:資料正在剝奪了我們的消費選擇權
- 開放性對於超人工智慧(ASI)至關重要人工智慧
- 【行人慣性導航】關於行人導航中IMU位姿推導的知識點及相關程式碼
- 關於ChatGPT的一些資訊,我畫了一張思維導圖ChatGPT
- 關於 SAP Cloud Connector 500 failed to sign the Certificate 的錯誤訊息CloudAI
- [資訊抽取]基於ERNIE3.0的多對多資訊抽取演算法:屬性關係抽取演算法
- 關於 RemoteViews 跨程式資源訪問的勘誤REMView
- 關於-生物資訊-入門-的思考
- 動動手指就能“躺賺”?兼職刷單詐騙氾濫上演“連環套”
- 關於人臉識別濫用的十個可能的應對方案
- 關於轉儲Oracle索引資訊的相關命令Oracle索引
- 互資訊與相關性的影像配準
- [20210409]關於X$KCCDI的scn資訊.txt
- 我為什麼要在天氣應用氾濫的今天仍還要做一款天氣 AppAPP
- 關於錯誤訊息 RangeError - Maximum call stack size exceeded at XXXError
- 4.3.2.3 關於PDB$SEED資料檔案的屬性
- 從盜版氾濫到開發熱土:遊戲如何成為波蘭國家名片遊戲
- 世鏈財經|區塊鏈專案策劃公司氾濫,行業亂象亟需整治區塊鏈行業
- 關於IOS 屬性atomic(原子性)的理解iOS
- 為了炒作,我們濫用了人工智慧人工智慧
- 關於PostgreSQL的系統資訊函式的OIDSQL函式