人工智慧下一個前沿:可解釋性
https://www.toutiao.com/a6708708718810235403/
不確定性是AI的一個特徵,而不是一個bug。
十億美元的問題
50多年來,計算機已成為我們生活的一部分。他們開始時只是大公司使用的這些巨大的裝置,他們最新的迭代是我們口袋裡的小巧智慧手機。
在我們與計算機互動的整個歷史中,我們主要使用它們作為擴充套件自身能力的手段。它們使我們能夠更有效地編寫,更輕鬆地編輯照片和視訊,以便即時訪問資訊。
在這樣做的過程中,他們遵循了古老的機器正規化: 以可靠的方式運作的結構,其存在的唯一目的是使我們的生活更容易完成一項特定任務 。從戰車到發動機和汽車,再到電腦,創造所有這些東西的唯一目的就是幫助我們解決具體問題。
儘管我們人類喜歡抱怨我們的機器不能正確地為我們提供服務的各種方式,從史前戰車 分解 ,到展現可怕的“ 死亡”藍屏 的現代計算機,事實是大多數時候這些機器工作得非常好。
考慮一下您的汽車發生故障的頻率。如果你特別不走運,那可能是每三個月一次。或者考慮一下現在重啟計算機的頻率。每週一次?可能每隔一週? 這是他們的功能週期中非常小的百分比。
更重要的是,在工作的機器和不工作的機器之間存在明確的分界線。你的車要麼向前移動要麼向前移動,如果它是一個或另一個,你就會很清楚。您的計算機是否正在執行 - 再次,那裡沒有模糊的邊界。
這使我們與機器的互動非常簡單。我們需要的是某種實用性。我們的汽車應該讓我們從A點到B點,他們能夠做到或不做。我們的計算機應該可以幫助我們編寫,編輯照片或上網,反過來也可以完成任務。作為使用者,我們可以立即判斷它是否是其中之一。
更重要的是,我們從不會三思而後行,是否存在某種中間狀態,一種不確定狀態,即事物既有效又無效。當然,我們的汽車發動機可能存在一些我們無視的問題,但我們的汽車會很樂意繼續下去,直到這個問題變得嚴重到足以讓它崩潰。或者可能有一些未知的病毒在我們的計算機作業系統中惡化,但在事情開始嚴重失靈之前我們不會意識到這一點。
我們與機器的互動基於這種基本的二進位制操作模式。它們要麼"開啟"要麼"關閉",要麼完全不工作,要麼100%可靠。
但是在過去的幾年裡發生了一些變化。我們的機器能夠以不同的模式執行,這是一種新的狀態,在這種狀態下,事物不會"正常"工作。他們現在已經進入了一個不確定的領域,這是迄今為止尚未開發的計算機領域,而且到目前為止,它還是人類的一項獨家特權。
不確定性
什麼是不確定性?這是一個與世界特定地區有關的概念。當你想到明天的天氣時,會有一定的不確定性。或者股票市場因其帶來的不確定性而臭名昭著。即使是所謂的簡單任務也存在相關的不確定性: 這條資訊真實存在嗎?這真的是我想買的咖啡機嗎?我真的生病了,還是隻是過敏?
這些問題直到最近才會出現在我們自己或另一個人身上。在大多數情況下,我們不會給出簡單的是或否答案。即使我們這樣做了,我們也會(或應該)要求一些理由。果然,有時我們可能會解決某種更高階別的權威:例如醫生,律師或牧師。但即使他們也不能免於為他們對感興趣的主題提出自己的意見。
為什麼我們拒絕接受不合理的意見?這是因為我們知道每種觀點中都存在固有的不確定性概念。這也是因為這些問題的答案將為進一步決策提供一個墊腳石。我們希望有堅實的基礎來建立我們的生活,這就是為什麼我們需要對別人告訴我們的東西有信心。
信任
信任需要付出巨大的努力,但很容易丟失。
人類擺脫向他人證明自己觀點的必要性的唯一途徑就是培養出令人難以置信的信任,以至於他們的觀點不受審查。這將使他們能夠避免為他們的所有答案提供理由,因為他們已經證明了過去正確行事的記錄。
信任需要付出巨大的努力,但很容易丟失。這是一個眾所周知的人性事實,尤其是因為失去了對被證明將我們誤入歧途的人的信任,這是一種非常有用的防禦機制,可以對付那些試圖利用其權威地位的人。
可解釋性
它們是錯誤的,因為任何實體在不確定性下做出選擇的任務,這些選擇都有影響人類生活的能力,然後這個實體成為我們社會生態系統的一部分,並因此獲得改變我們世界的能力。 - 好的或壞的
這如何與計算機聯絡起來?如上所述,他們現在正在走向不確定的領域。他們被要求表達意見或做出涉及不確定性的決定。我們要求亞馬遜以合適的價格為我們找到合適的產品。我們要求Google向我們提供準確的資訊,並向Facebook提供最新訊息。我們的演算法可以監控我們的健康狀況,決定我們重新犯罪的可能性,或檢視一堆簡歷以找到合適的候選人。
我們知道沒有確定的方法來滿足這些要求,我們肯定不會要求人類做出100%正確的決定。然而,如果我們沒有辦法仔細檢查他們的慷慨和可靠性,我們絕不會相信人類專家為我們做出所有這些決定。
事實上,如果一個人負責所有那些只會按照自己的意願行事並且從未被要求解釋他們的行為,我們會認為這對我們的民主是絕對的冒犯。如果提供任何型別的解釋超出其心智慧力,那將更加荒謬。我們肯定永遠不會允許一個人這樣做,對嗎?我們會嗎?
為什麼我們允許機器?聽起來很有趣,這是因為直到最近這個想法還沒有超出我們的想法。還記得我們是如何習慣於思考我們的機器,因為這些有限的生命總是在兩個狀態之間執行,"開"和"關"?
還記得我們從未預料到會出現某種不確定性,一個薛定諤的盒子,我們的機器會在同一時間開啟和關閉,或者更好的是,它們會進入我們人類認為的不確定性領域。最後的機器智慧前沿?
當我們決定使用演算法為我們做出這些重要決策的那一刻,我們決定用它們來模擬具有固有元素不確定性的世界部分。
在我們遇到這種道德困境之前,我們認為我們需要創造一臺具有人類精神能力的機器,一種真正的通用AI。這就是為什麼我們高興地讓我們的演算法承擔人類專家的角色,因為我們從未想過會產生任何問題。
即使在今天,人們也在談論機器這些冷酷的計算實體,這些實體在做出決策時是公正的,因此比人類更好。他們永遠不會不公平或有偏見,因為他們沒有感情或經歷偏見。遺憾的是,這種談話也源於當今資料科學最前沿的人們。
事實是他們錯了。
更不用說隱私問題,平衡資料集,公平性或任何其他標語,這些標語目前正在吸引機器學習社群。它們是錯誤的,因為任何實體在不確定性下做出選擇的任務,這些選擇都有影響人類生活的能力,然後這個實體成為我們社會生態系統的一部分,並因此獲得改變我們世界的能力。 - 好的或壞的。
這就是我們發現自己處於谷歌之後的狀態,其他人在我們的社會中獲得瞭如此突出的地位。這個想法並沒有讓我們想到這些演算法可能會在引擎蓋下發生故障,故障是他們設計的一部分 - 一個功能,而不是一個bug。在問題開始出現之前我們沒有注意到。
任何涉及不確定性的決定,世界上任何不確定的部分,這些決策都不能模仿我們從機器中習慣的可靠性。天氣可以準確預測90%。也許99%。也許99.9999999%。沒關係。總是會出現錯誤,而這個錯誤導致了向不確定性轉變的過渡。
你什麼時候對嗎?你什麼時候錯的?我什麼時候可以信任你?這些是每個理智的人在向他們提出其中一個問題時應該詢問他們的機器的問題。如果接收端有人,我們會問這些問題。
但我們沒有。我們被我們與機器互動的悠久歷史所迷惑,這些機器明確無誤地"開啟"或"關閉", 我們已經放鬆了警惕。我們被允許自己被機械"Oracles"統治,這些機器旨在如實地回答我們所有的問題。
驗收
如果你的醫生說他們在醫學院的考試中得到95%,你會感到滿意嗎?不幸的是,他們不能為他們的專業意見提供額外的理由嗎?你願意接受他們的話嗎?
我們怎樣才能擺脫這種混亂局面?我們怎樣才能讓公眾知道他們現在處理的機器不可靠,永遠不可靠?我們如何處理這種認識的後果?我們如何迴歸並幫助智慧機器在我們的世界中恢復其應有的位置,儘管是以更負責任的方式?
我們只有一種方法來處理這種不確定性。作為人類,我們不斷地為我們的決定和信仰辯護,而我們論證的力量(或缺乏)決定了別人對我們的看法的認真程度。我們應該將演算法保持在相同的高標準。
關於我們目前用於建立智慧機器的方式。我們定義一個問題。這個問題可以簡單明瞭:你在這張照片中看到的是貓還是狗?然後我們收集了很多貓狗的照片,我們反覆向我們的演算法展示它們,讓它回答我們的問題,並在它正確回答問題時讓它知道。然後我們測試它在 以前從未見過的一系列圖片上 的新發現的知識。我們測量它得到的正確答案的百分比,並愉快地報告我們的演算法準確性。然後我們將這個演算法部署在一個真實的世界系統中,試圖回答不同人類提出的同一個問題。
如果我們只是希望我們的智慧手機能夠在我們的照片上自動標記我們的狗,這可能是相當無辜的,當它為我們的鄰居的貓弄錯它時它甚至可能是可愛的, 但如果我們談論更嚴重的應用程式,事情會變得醜陋。
假設你參加考試後,你會走進醫生的辦公室,醫生告訴你,你患有癌症。你可能會說, "你是怎麼得出這個結論的?"
如果你的醫生說他們在醫學院的考試中得到95%,你會感到滿意嗎?不幸的是,他們不能為他們的專業意見提供額外的理由嗎?你願意接受他們的話嗎?
難道你不高興醫生說:你的檢查顯示了這個和那個,這就是為什麼我認為你得了癌症?即使你不完全明白他們在談論什麼,你難道不相信那個人嗎?
作為科學家和實踐者,這是我們應該遵守的標準。
繼續
我們可以不再認為自己超越了與功能社會每個成員相關的道德標準
它也不在我們手中。無論我們是否願意,更廣泛的公眾將很快開始堅持我們的演算法到相同的標準。在某些地區,他們已經開始了。
我們可以繼續否認這一事實,我們可以堅持認為機器學習演算法不需要解釋自己,它們在某種程度上超出了這一點(就像牧師曾經一樣!),我們應該只關注它們使它們表現得更好。
我們可以,但是當公眾超越我們時,我們不應該抱怨。當規則和規定來到我們的路上。我們可以隨心所欲地抗議他們,我們可以談論無法看到進步方式的倒退監管機構。因為我們是科學家,所以我們可以認為自己在精神上更優越。我們可以瞧不起我們應該服務的社會。
或者我們可以承認我們尚未達到目標的事實。我們可以承認公眾的恐懼。我們可以專注於我們的演算法確實可以改善人類生活的情況,並遠離那些弊大於利的人。我們可以不再認為自己超越了與功能社會每個成員相關的道德標準。
這就是當你離開學術界並進入現實世界時會發生的事情。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2649303/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 資料科學的下一個「超能力」:模型可解釋性資料科學模型
- 釋放DeFi潛力,Dfinance將是金融區塊鏈下一個前沿解決方案 -BlockmanityNaN區塊鏈BloC
- 下一個 Kubernetes 前沿:多叢集管理
- 隨需應變的大腦,人工智慧的下一前沿人工智慧
- 深度學習模型可解釋性初探深度學習模型
- 比爾蓋茲:元認知將是AI下一個前沿AI
- 下一個十年:人工智慧人工智慧
- 機器學習可解釋性工具箱XAI機器學習AI
- 阿里可解釋性推薦演算法應用阿里演算法
- 談談機器學習模型的可解釋性機器學習模型
- KDD 2019論文解讀:多分類下的模型可解釋性模型
- 首席說|NLP場景應用中的可解釋性
- 深度學習可解釋性差到底是什麼意思?深度學習
- 機器學習模型可解釋性的詳盡介紹機器學習模型
- 積分梯度-受監管行業的 AI 可解釋性梯度行業AI
- 可解釋性終極追問,什麼才是第一性解釋?20篇CCF-A+ICLR論文給你答案ICLR
- 用可組合的構建塊豐富使用者介面?谷歌提出「可解釋性」的最新詮釋谷歌
- 深度學習的可解釋性研究(一):讓模型「說人話」深度學習模型
- 卷積網路可解釋性復現 | Grad-CAM | ICCV | 2017卷積
- 2022年新前沿:生成式人工智慧人工智慧
- 乾貨|個性化推薦系統五大研究熱點之可解釋推薦(五)
- 相信你的模型:初探機器學習可解釋性研究進展模型機器學習
- 最權威北美放射學會年會回顧:AI的進化與下一個前沿AI
- 人工智慧的下一個五年,全球都在關注這十個人人工智慧
- 線性模型是否真的能給出一個很好的解釋?模型
- XAI有什麼用?探索LLM時代利用可解釋性的10種策略AI
- 谷歌大腦提出概念啟用向量,助力神經網路可解釋性研究谷歌神經網路
- 機器學習可解釋性系列 - 是什麼&為什麼&怎麼做機器學習
- 【機器學習】李宏毅——Explainable ML(可解釋性的機器學習)機器學習AI
- Google新作:注意力機制是否真的能夠提供模型的可解釋性?Go模型
- TinyML:下一輪人工智慧革命人工智慧
- Toby Walsh教授:四個指數趨勢解釋人工智慧威脅論!人工智慧
- 人工智慧 | 自動駕駛與人工智慧前沿研究報告(人才篇)人工智慧自動駕駛
- 關注:中科院等機構釋出2018年10大領域100熱點前沿和38個新興前沿
- 中國人工智慧協會(AI前沿講習班)人工智慧AI
- 釋出npm包,全域性安裝可命令列使用NPM命令列
- NSF釋出人-技關係前沿專案指南
- 權威釋出:社交電商成為下一個風口?