人工智慧承諾要徹底改變放射學,但到目前為止它失敗了 - columbia

banq發表於2021-06-08

美國哥倫比亞大學安德魯於 2021年6月7日發文:原因很簡單。我們還沒有提供乾淨的替代方案。僅僅發表論文來展示如何擬合模型是不夠的。您需要對其進行程式設計,並且您需要該程式來處理可能發生在資料上的所有不良事件,而我們還沒有這樣做。
我們無法訪問資料流來嘗試想法,而且一切都比我們想象的要難實施,我們在原始資料的一些問題上糾纏不清,而 . . . 好吧,我們最近又回到了這個問題上,所以也許我們會取得一些進展,但關鍵是很難想出一個可用的替代品,即使是在一個像數字實驗室分析這樣乾淨和明確定義的問題中。世界上有很多稀釋分析正在進行中,所以理論上我認為會有可用的資金來提高估算的效率,但它並沒有發生。放射學的故事不同,因為有更多的錢,但技術和體制方面的問題更加困難。
Geoffrey Hinton 是一位傳奇的電腦科學家: Hinton 在 2016 年宣佈“我們現在應該停止培訓放射科醫生時(不需要這些醫生了),很明顯,五年內深度學習將比放射科醫生做得更好。” 美國食品和藥物管理局 (FDA) 當年批准了第一個用於醫學成像的 AI 演算法,現在美國有 80 多種批准的演算法,歐洲也有類似數量。
但是之後:
然而,在美國工作的放射科醫生的數量是上升而不是下降,在 2015 年至 2019 年間增加了約 7%。事實上,現在放射科醫生的短缺預計將在未來十年內增加。發生了什麼?放射學領域的惰性人工智慧革命是人工智慧如何過度承諾和交付不足的另一個例子。
放射學——對影像進行疾病徵兆分析——是一項狹義的任務,人工智慧可能擅長,但影像識別演算法往往脆弱且不一致。. . . 只有約 11% 的放射科醫生在臨床實踐中使用 AI 進行影像解釋。在不使用人工智慧的人中,72% 的人沒有這樣做的計劃,而大約 20% 的人希望在五年內採用。這種緩慢擴散的原因是效能不佳。. . .
 

駭客新聞網友討論:
這裡與地震解釋有很多相似之處。許多公司一直承諾人工智慧“徹底改變”解釋並消除對地質學家/地球物理學家“乏味”工作。由於各種原因,這對管理層非常有吸引力,因此它獲得了大量資金。
 
我在一家風險投資支援的 Radiology+CV/ML 初創公司擔任了三年的 CTO+聯合創始人,放射科醫生(或任何醫學專家)基本上可以控制勞動力的供應,並控制最佳實踐的標準,基本上透過人為稀缺的方式允許持續高薪。他們究竟為什麼要讓他們的工作自動化?
 

CRUD 應用程式開發專案經常超過截止日期和預算。ML 專案的風險更大。
 
關於醫療保健的事情是大多數將其自動化的努力都失敗了。可以說這是因為沒有人“理解”這個領域,也就是說沒有人可以給出他們運作方式的編纂總結;醫療保健管道中的每個專業人員都會考慮人體/健康/行為/等方面的 20 種不同的常見變數。這類似於自動駕駛汽車的情況,執行普通任務的能力被許多難以訓練的極端情況所淹沒。
 
也許,但問題不是 AI/ML 的問題,而是人類的數學很差。我們在貝葉斯邏輯方面很糟糕。尤其是在醫學測試方面,醫生對此也非常內疚,我們忽略了先驗並將貝葉斯中的因素作為最終事實。
但是,人類在貝葉斯邏輯方面很糟糕,卻仍然比缺乏大部分資料圖片的機器AI好。這就是為什麼當務之急不是推動實驗室模型,而是推動鼓勵合理收集資料的政策變化。這比對模型效率與人類進行理論化相比要困難得多。
 
科學是一步一步發展的,進步是建立在進步的基礎上的。我們透過線性迴歸開始了機器學習。然後我們開始識別數字。然後我們開始識別貓,突然間,谷歌照片可以在它似乎自動吸收的影像中找到我 1994 年的一個朋友。這是驚人的進步。
 
幾十年來,人們一直在嘗試使用專家系統、流程圖和您可以想象的所有其他技術來做到這一點。我的妻子是一名藥劑師,他們擁有的軟體應該可以幫助他們解決現在令人眼花繚亂的藥物數量。與放射學相比,這似乎是一個普通的案例:(在美國)FDA 釋出了指南,因此只需將這些指南轉換為程式碼即可,但她發現“沒有太大幫助,每隔一段時間,我就會收到一個有用的警報,但大多數都沒有幫助,哪怕是一點點。” “主要是誤報。”
 
放射科初創公司在這個關鍵問題上都失敗了:要做好工作,您不僅需要自動化影像解釋,還需要真正實現整個 EHR 的自動化。
 
放射學是模式匹配和一組非常複雜的決策樹。它們不是魔法,因為我們不斷地培養出更多的從業者,他們在給定的輸入下實現相同的一致輸出。任何試圖改進事物的人都是常識一點一點地解決複雜的問題。我也強烈反對“放射學比科學更藝術”,因為如果是這樣,放射科醫生之間將無法就診斷達成一致。
 
我在自然語言處理中看到了同樣的事情。許多重要的細節來自文件的四個角之外。具有諷刺意味的是,機器學習人員一般反而試圖說服人們機器學習可能不適合他們的問題。或者,更糟糕的是,採取一些更模糊的立場,比如“是的,我們可以用機器學習解決這個問題,但實際上它比付錢給人工來做要花更多的錢。”
事實上,大多數NLP軟體都忽略了文件的格式設定,而文件格式也傳遞了大量的資訊。例如,章節標題必須與構成章節正文的文字區別對待。甚至很難確定節標題,也很難利用它們,因為大型transformer模型只接受一個非專用標記流。
 
醫生的主要任務之一是處理病人的模糊和不具體的問題,與他們建立融洽的關係,瞭解什麼是正常的,什麼是不正常的,處理當時“不相關”的資訊,並將結果集中到有限的可能性樹中。
原則上,對於ML演算法來說,這將是一項艱鉅的任務。都是條件機率。但每一個這樣的系統都未能做到這一點。醫生貝葉斯是:他們做的先驗知識來自於他們作為社會成員的個人經歷和專業培訓。
 

 



 

相關文章