回顧IBM Watson AI如何發揮優勢、避開陷阱來優化醫患護理?

dicksonjyl560101發表於2019-06-24

https://www.cn-healthcare.com/articlewm/20190621/content-1064445.html


謹慎利用機器學習有助於促進患者與醫生之間的關係。

2013年,IBM向德克薩斯大學MD安德森癌症中心提供了一個大膽的想法——建立一個基於人工智慧的平臺,IBM Watson,該平臺可以藉助數字化來對抗人類最可惡的疾病之一——癌症。

但在不到4年的時間裡,這個開創性的專案分崩離析。雖然Waston的發展過程充滿坎坷,但它也向我們展示了機器學習技術是怎樣在有朝一日補充甚至徹底改變醫生所做的一切。

問題不在於AI是否會進入醫學領域,而是它以怎樣的形式進入。在最好的情況下,機器學習可以利用幾乎所有臨床醫生的集體經驗,為一個醫生提供數百萬個類似病例的經驗,讓醫生做出明智的決定。在最糟糕的情況下,人工智慧可以促進不安全的做法,擴大社會偏見,表現出過度承諾,從而失去醫生和患者之間的信任。

近日,Google的Alvin Rajkomar博士和Jeffrey Dean博士以及哈佛醫學院的Isaac Kohane博士在新英格蘭醫學雜誌(New England Journal of Medicine)上概述了在醫學實踐中機器學習的前景和陷阱。

他們認為,AI不僅僅是一種新工具,它是擴充套件人類認知能力的基礎技術,有可能徹底改革醫療健康,使之向更好的方面發展。謹慎利用機器學習有助於促進患者與醫生之間的關係。

1、診斷治療

在人工智慧和醫學方面,診斷方面受到很大的壓力。

基於人工智慧的診斷工具,往往可通過乳房X線照片發現可能致命的病變並診斷皮膚癌和視網膜疾病(現已獲得FDA批准),即使是在他們的嬰兒期,而一些放射科醫生和病理科醫生可能會看不出來這些。一些AI模型甚至可以解析精神症狀或為轉診提供建議。

機器視覺(machine vision)和轉移學習(transfer learning)方面的最新進展提高了計算機的診斷能力。儘管AI放射科醫師通常需要大量註釋資料集來“學習”,但轉移學習可以使先前訓練過的AI快速獲得另一種類似的技能。例如,對標準儲存庫ImageNet中數千萬日常物件進行訓練的演算法,可以針對100,000幅視網膜影像(機器學習的相對較少數量)進行重新訓練,以診斷兩種常見的視力喪失原因。

更重要的是,機器學習非常適合分析在日常護理期間收集的資料,以鑑別未來可能出現的健康狀況——少數群體健康報告。這些系統可以幫助實施預防措施,將健康問題扼殺在萌芽狀態,並降低醫療成本。當給予足夠數量和質量的患者健康縱向資料時,AI建立的預測模型往往比執業醫師通過醫學成像獲得的原始資料更準確。

報告作者表示,醫生必須接受培訓,收集必要的資訊,將它們輸入進AI預測引擎。我們需要對這些模型進行仔細分析,以確保它們沒有計費激勵或出現當沒有顯著症狀時無法給出建議的情況。

但通過治療資料所建立的AI模型,可能僅反映醫生的處方習慣而不是理想的做法。一個更有幫助的系統必須從謹慎挑選過的資料中學習,以評估某種治療對某一特定人群的影響。

而要做到這點是有一定難度的。最近的一些嘗試發現,獲取專家資料,更新AI或根據實踐定製它們,確實很有挑戰性。作者總結說,使用AI治療,給予醫療建議仍然是未來的前沿。

2、醫療改革

診斷只是冰山一角。

也許更明顯的是人工智慧對簡化醫生工作流程的影響。一般AI如智慧搜尋引擎等可以幫助挑選必要的患者資料。而其他技術,如醫生已經在日常實踐中使用的預測型別或語音聽寫,可以簡化獲取醫療資料的繁瑣過程。

作者強調,我們不應該低估這種特殊的影響。醫生們淹沒在文書工作中,會佔據與患者相處的寶貴時間。將工作主力變為AI技術,可以提高效率和改善工作流程,從而降低倦怠率。更重要的是,資料可以反過來反饋到培訓機器學習模型,以進一步優化對患者的護理,進行良性迴圈。

人工智慧也是將醫療保健擴充套件到診所之外的關鍵。例如,未來的應用程式可以讓患者拍攝皮疹照片,獲得線上診斷而不需要跑過去進行緊急治療。自動分診可以有效地將患者轉移至適當護理醫師手中。並且在“看到”數十億患者的情況之後,機器學習可以使醫生有能力做出更好的決策,這也許是AI輔助醫療保健的最大希望。

但是,這種特殊情況尚沒有資料支援它。現在的關鍵是開發正式的方法來測試這些想法,同時不會傷害醫生或病人。

3、挑戰與陷阱

正如IBM的Watson的發展磕磕絆絆,人工智慧在醫學界中的利用面臨著多重挑戰。Theranos慘敗進一步描繪了一幅令人痛苦的清晰畫面:在處理患者健康問題時,矽谷教條“move fast and break things”既魯莽又極其危險。

醫學往往可以展現機器學習的極限。例如,在沒有代表性、多樣化的疾病資料集的情況下,AI模型可能是錯誤或有偏差的。這也是IBM Watson崩潰的一部分原因:利用一個足夠大的註釋資料集以發現尚未知的醫學發現,即使是可能的也是非常困難的。

然而,作者認為這不是一個永久的障礙。只要資料量足夠大,AI模型就越來越能夠處理不可靠或可變的資料集。雖然不完美,但這些模型可以通過較小的註釋集進一步細化,這使研究人員和臨床醫生能夠識別模型的潛在問題。

例如,Google Brain的工作正在探索開啟AI“黑匣子”的新方法,迫使演算法來解釋他們的決定。在臨床環境中,可解釋性變得越來越重要,幸運的是,如今在頂級期刊上發表文章的著名AI診斷學家往往帶有固有的解釋機制。雖然人類專家可以監督人工智慧替代方案的發展以降低錯誤診斷,但所有各方都應該明確:對於人類和機器來說,醫療錯誤率為零是不現實的。

作者說,採用這些系統的臨床醫生和患者需要了解其最佳使用的侷限性。任何一方都不應過度依賴機器診斷,即使它變得習慣和平凡。

目前,我們僅限於基於歷史資料集的模型;未來幾年的關鍵是建立臨床醫生可以在現實世界中評估的前瞻性模型,同時應對因獲取和管理AI的大型資料集而面臨的複雜的法律,隱私,道德和監管問題。

作者對此抱有“謹慎樂觀”的態度,期望在未來幾年內出現一些經過仔細審查的早期模型,以及由經濟激勵和價值醫療理念驅動的文化變革。

最後,機器學習不會帶走醫生的任何東西。相反,醫生的溫暖,她的感性,敏感和對生活的欣賞,永遠不會消失。它只會得到補充。

“這不是關於機器與人類,而是關於通過利用AI的優勢來優化人類醫生和患者護理,” Kohane說。

參考資料:https://singularityhub.com/2019/04/25/how-ai-can-tap-into-the-collective-mind-to-transform-healthcare/


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2648603/,如需轉載,請註明出處,否則將追究法律責任。

相關文章