聯合國首席AI顧問專訪:我們期望AI應該是完美的,但這永遠不會

大資料文摘發表於2021-03-04

聯合國首席AI顧問專訪:我們期望AI應該是完美的,但這永遠不會

大資料文摘出品

來源:informationweek

編譯:張大筆茹


聯合國首席人工智慧顧問Neil Sahota分享其對聯合國重大AI專案以及當今AI面臨的主要挑戰的看法。


人工智慧在各個行業和政府中廣泛使用的例子一度存在於科幻小說中。但如今,我們不必擔心像許多電影裡一樣被機器人奴才推翻的情況發生。


反之,有更大的問題影響著我們今天的生活。例如,為了更大的利益,我們應如何以及何時共享資料,何時應將其保留用於專有用途?面部識別等特定的人工智慧應用是否合乎道德?如何確認人工智慧的結果是可以信任的?如何知道人工智慧何時出現偏見,以及如何解決?


由於目前的美國政府政黨輪替的情況,這些問題就成為頭等大事。政府和企業中正在進行許多專案,他們將在未來幾年內受到這些問題的影響。


為了深入瞭解AI的重大問題,InformationWeek與採訪了Neil Sahota——聯合國首席人工智慧顧問,與聯合國合作舉辦AI for Good全球峰會,也是《擁抱AI革命》一書的作者。


以下為該對話的一些摘錄。


目前正在使用AI技術中,最有趣的地方是什麼?


實際上是一個被稱為“人工同理心”的領域。雖然機器不會感覺到情緒,但我們已經能夠教他們如何在人中識別情緒。肢體語言的使用,語音的語氣,甚至單詞的選擇或手勢都是可以幫助機器學習實時解讀人的情緒狀態的資料點。


人們非常關注其為人們提供心理健康問題的幫助。英國有一個名為“彩虹計劃”的組織,為家庭暴力的受害者提供了幫助(即使用聊天機器人幫助人們識別他們是否是虐待的受害者)。


實際上它並不能代替人際關係,而是一個安全的空間,使人們無論何時無論都可以始終參與其中。


這是領先優勢。有許多工作正在完成-可能有25種解決方案可供人們當前使用。從事這些專案的人員需要了解心理學和語言學,但治療師們還並未追求AI,因此這是一個新興的空間。但是,人們正在嘗試使用一些基本工具。


另一方面,我認為這項技術被擱置的原因是,許多人認為這是不可能的:機器無法理解一個人的情緒。


實際上現在我們已經看到了,不再是這種情況了。我認為這將創造更多的可能。


聯合國首席AI顧問專訪:我們期望AI應該是完美的,但這永遠不會

Neil Sahota


機器是如何被訓練的?


它是心理學的組合:不同的情緒狀態以及與之相關的某些事物,以及運動機能學,肢體語言,語言學和實際中的語言編碼能力的教學。因此,即使是對我們來說似乎微妙的事情,例如使用“夥伴”一詞而不是“朋友”,實際上也傳達了很多含義。


什麼樣的訓練資料用於向機器傳授人類情感?是危機中心電話記錄還是客戶服務電話記錄?


可能是那些東西,但是實際上我們發現社交媒體中資料的就非常好。


人們可以使用為大學或工作面試而寫的論文,但實際上他們可能並沒有使用真實聲音。我們可以得到的現實世界,真實聲音型別越多越好。社交媒體是一個很好的來源。


是否有開源資料庫可用?


沒有很多,資料本身就是一個挑戰。資料是當代新能源,人們顯然不願意分享,至少沒有貨幣化之前,這顯然已成為障礙。有一些資料確實我們不應該共享。但是,即使每個人都無法使用資料,每個人都不願意洩露資料,這會造成其他困難,尤其是在醫療保健領域。


我們沒有足夠的資料來做一些我們想做的事情,以推進醫學研究。


醫學研究面臨哪些挑戰?他們是如何克服這些挑戰的?


遺憾的是,機器本身並不瞭解事物,我們需要資料來訓練,如果想讓它報告可能的發現或疾病,則意味著必須擁有大量資料。


特別是對於肺部,需要健康肺部、第一階段癌症、第二階段癌症、肺氣腫等的肺部X射線檢查結,需要大量的這些資料集。


像克利夫蘭診所或梅奧診所這樣的許多地方可能沒有足夠的資料來實際執行此操作,他們要麼透過治療越來越多的患者來獲取資料,要麼就獲取其他合作機構的許可,例如可能擁有研究中心的大學和研究中心。


聯合國正嘗試建立一個去掉PHI(個人健康資訊)的醫療保健資料庫,可以建立大量資料供研究人員實際使用。


那是你在聯合國從事的專案之一嗎?


是的!基本上,每個人都同意將其資料儲存在此處以供一般使用,但去掉了標識資訊。它為每個人提供了更大的資料集。


在這個專案的工作中,基本上是您去到一些醫療機構宣傳:嘿,如果我們可以共享這些資料不是很好嗎?這難道沒有價值嗎?


我很願意,大力提倡!因為我們有意因不共享而放慢自己的速度。我們已經看到一些例項,其中一個公司正在著手另一公司在七年前嘗試過的研究道路,結果卻陷入了僵局。結果是浪費了人們的時間,精力和金錢。


肺癌是一個發展領域麼?


他們實際上已經是肺癌的解決方案。斯隆·凱特琳(Sloan Kettering)有一個,正在用它來檢測X射線中的肺癌。該系統現在的準確率約為90%,但機器能做的只是診斷癌症,無法診斷其他任何東西。


Sloan Kettering會將其授權給其他機構應用嗎?


現在嗎?不會的。他們自己使用,因為這是他們的核心優勢。我們不習慣競爭,不習慣社會企業。你可以選擇賺錢,也可以做為非營利組織。也可以兩者都做!


在聯合國工作中,告訴一些挑戰,在您向一些組織機構宣傳:“嘿,讓我們分享你的資料好嗎?這是很好的一件事。”


即使他們不知道如何使用資料或不會使用他們的資料,也不希望其他人從擁有的財產中致富。我們現在真的不知道如何評估資料的價值。


有些人會有更開放的想法或前瞻性的思維,我不確定這裡用的是正確的短語,但認識到實際上共享其中一些內容的公司為每個人增加了機會。漲潮抬起了所有的船。再次重申,這是與傳統上大多陣列織習慣不同的思維方式。


AI在當今世介面臨著哪些重大挑戰?


確實有兩個核心要素。一個是道德問題,需要一個負責任的AI體系,僅僅因為可以做某事並不意味著我們應該做。另一個大問題就是對技術的真理和信任,我們期望AI應該是完美的,但這永遠不會。


我們會犯錯,訓練中會有缺陷,因為人們有內在的偏見。


這確實是我們現在面臨的兩個重大挑戰。


相關報導:



來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31562039/viewspace-2761021/,如需轉載,請註明出處,否則將追究法律責任。

相關文章