AI在自動駕駛、社交媒體與醫療保健等領域出現顯著挫折 - bloomberg

banq發表於2021-10-05

人工智慧AI在自動駕駛汽車、社交媒體甚至醫療保健領域出現明顯挫折。
祖克伯和馬斯克都在努力解決一些大問題,這些問題至少部分源於對交付不足的人工智慧系統的信任。祖克伯正在處理無法阻止有害內容傳播的演算法;馬斯克的軟體尚未以他經常承諾的方式駕駛汽車。準備使用AI的公司應該考慮專注於培養高質量的資料——大量的資料——並僱用人員來完成人工智慧尚未準備好的工作。  
旨在鬆散地模擬人腦的深度學習 AI 系統可以發現腫瘤、駕駛汽車和寫文字,在實驗室環境中顯示出驚人的結果。但問題就在於此。在不可預測的現實世界中使用該技術時,人工智慧有時會達不到要求。當它被吹捧用於醫療保健等高風險應用時,這令人擔憂。
  
Facebook 對人工智慧的信心在其自己的網站上很明顯 ,它在提及內容主持人的重要性超過其機器學習演算法。祖克伯還在 2018 年告訴國會,人工智慧工具將是識別有害內容的“可擴充套件方式”。這些工具在發現裸體和與恐怖主義相關的內容方面做得很好,但它們仍然 難以阻止錯誤資訊的傳播。
問題是人類語言在不斷變化。反疫苗運動者使用諸如輸入“va((ine”)之類的技巧來避免被發現,而私人槍支銷售商則在 Facebook Marketplace 上釋出空箱子的圖片,並附上“PM me”的描述。這些欺騙了旨在阻止違反規則的系統內容,更糟糕的是,AI 也經常推薦該內容。
現在,那些被僱傭來支援 Facebook 演算法的大約 15,000 名內容稽核員工作量已經過度。如果 AI 不能勝任這項任務,Facebook 應將這些員工增加一倍至 30,000 人,以正確監控帖子。《數學毀滅武器》的作者凱茜·奧尼爾直截了當地說Facebook 的人工智慧“不起作用”。
  馬斯克對人工智慧的過度承諾實際上是個傳奇。馬斯克最近在一條推文中承認,通用自動駕駛技術是“一個難題”。
 
更令人驚訝的是:人工智慧在醫療保健方面也一直表現不佳,而該領域對這項技術最有希望。今年早些時候,《自然》雜誌上的一項研究分析了數十種旨在檢測 X 射線和 CT 掃描中 COVID-19 跡象的機器學習模型。它發現由於各種缺陷,沒有一個可以用於臨床環境。另一項研究是上個月發表在英國醫學雜誌上的研究發現,94% 的人工智慧系統掃描乳腺癌跡象的準確度低於單個放射科醫生的分析。用於發現乳腺癌的人工智慧系統被設計得過於敏感,更容易發出錯誤警報,寧可誤報不可錯過。但是,即使乳腺癌篩查召回率的微小百分比增加(美國為 9%,英國為 4%),也意味著成千上萬的女性因誤報而更加焦慮。“也就是說,我們接受對女性進行篩查的傷害,只是為了實施新技術,”泰勒-菲利普斯說。
 
為什麼人工智慧沒有達到我們希望的狀態?部分問題是技術營銷的膨脹。但人工智慧科學家也可能將原因歸咎於此。
這些系統依賴於兩件事:一個功能模型和用於訓練該模型的底層資料。為了構建良好的人工智慧,程式設計師需要將絕大多數時間(可能大約 90%)花在資料上——收集資料、分類資料和清理資料。這是一項枯燥而艱難的工作。可以說,今天的機器學習社群也忽視了這一點,因為科學家們對 AI 架構的複雜性或模型的複雜程度給予了更多的重視和聲望。

 

相關文章