AI犯錯誰之過?切勿盲目相信之

weixin_34253539發表於2018-11-30

AI前線導讀:

人工智慧、機器學習,在這個智慧當道的時代,你幾乎可以在任何地方看到AI的身影,小到你手裡的智慧手機,大到工廠的超大型生產裝置,人們相信人工智慧,甚至在某些領域,人們已經開始對AI產生了依賴。但是,AI的判斷一定是準確的嗎?如果AI出現了失誤,那麼這個責任應該是誰的呢?本文作者Cassie Kozyrkov對這一問題提出了他的想法。

更多幹貨內容請關注微信公眾號“AI前線”(ID:ai-front)


別誤會,我其實很喜歡機器學習和人工智慧,但我不會盲目地相信它們,你應該也是吧,因為建立有效的、可信任的人工智慧或機器學習解決方案是一個建立信任的過程。

\"image\"

圖:盲目信任是件可怕的事情

在你開始臆想任何有關機器人或科幻小說的故事之前,先打斷一下!人工智慧系統並不像人類那樣,它們只是被賦予了詩意般名字的貼標機。它們之所以不值得信任,是因為一些其他原因。正所謂事實勝於雄辯,讓我們來看幾個熟悉的例子吧。

設定場景

歡迎吸貓。在之前的文章中我們建立了一個分類器將以下這六張圖片分為兩組。

\"image\"

圖:《[揭祕無監督學習(http://bit.ly/quaesita_unsupervisedimg)》中的原始資料集,兩隻不同的貓的圖片。

之前,我們建立的機器學習系統成功地返回了我所期望的結果!

\"image\"

圖:這個例子是為了說明有監督學習和無監督學習模型成功地將兩隻貓分開了,並且達到了100%的訓練準確率。

這些影像中共有兩隻貓,並且模型成功地返回了他們的標籤。這意味著我成功地建立了一個Tesla和Huxley分類器,對嗎?

我們的想法欺騙了我們

還沒這麼快!其實我們的期望欺騙了我們!仔細觀察這些圖片,你會發現,在所有Tesla的圖片背景中都有散熱器,而Huxley的則沒有。

\"image\"

圖:這個系統其實不是一個貓咪檢測器。由於確認偏差的存在,我選擇性地注意到了我喜歡的結果,而並沒有注意到實際上我設計的系統是一個散熱器檢測器

貓咪檢測器還是散熱器檢測器?

很不幸,實驗結果表明,這的確是一個散熱器檢測器。使用新樣本進行測試可能會有所幫助,所以讓我們看看是否以這種方式解決問題……

\"image\"

圖:事實證明,使用來自同一資料集的更多樣本對於解決問題並沒有太大幫助。

即使我使用新資料(這些新圖片)來測試它,也不會有太多的錯誤,所以我們的分類器到底有問題嗎?

假設Tesla總是和散熱器一起而Huxley總是不和散熱器一起,那麼誰會在乎它是如何工作的?它總能奏效。它每次都會給出合適的分類,如果是這樣就沒有問題了。

但這真的是一個很大的假設。如果貓搬到另一間公寓了會怎樣?如果你直接使用我的分類器對你的圖片進行分類會怎樣?

在這些情況下,返回的標籤將是“Huxley”,依賴了我的檢測器的任意一個關鍵任務系統都會發生崩潰。

這到底是誰的錯?

讓我們先分析一下:

  • 將畫素轉換為標籤的方法太過複雜,搞得我一頭霧水。

  • 我觀察到的只是輸入(畫素)和輸出(Hux / Tes標籤)。

  • 因為我是人,我沒有注意到眼皮底下的一些細節(散熱器和Tes總是一起出現)。

  • 我告訴自己關於輸入如何與輸出相關的故事不僅被簡化了,而且還一廂情願地偏離了對散熱器的解釋。

  • 只要我確信過它確實有效,就不必理解它的工作原理的。

  • 檢查它是否有效的方法是評估它如何處理以前沒有見過的一組相關樣本。

到現在為止還挺好,實際上還沒有什麼問題。你相信很多東西,卻不知道它們是如何起作用的,例如我們許多人因為頭痛而服用撲熱息痛。它的確有效,但科學也無法解釋為什麼。重要的是,你可以驗證撲熱息痛確實有效。

\"image\"

圖:不知道這種流行了100多年的藥物在分子水平上如何起作用?科學也不知道。

把複雜的AI系統想成頭痛治療一樣。只有確保它們有效,你就會沒事。那麼是不是這個系統就沒有問題了?

可惜的是,我檢查了一些樣本,這些樣本與我希望系統使用的樣本不同。

這一次,它出了大問題。只要我們使用適當的樣本適當地測試系統,其他就不會有問題。所以答案是:這是我的人為錯誤

\"image\"

圖:如果針對一個任務測試了該系統,然後將其用於其他任務,你期望得到怎樣的結果呢?

如果教學的時候我不按考點來教學生,那麼他們考試成績很差不應該是理所當然的嗎?如果我的所有樣本都來自Tes和散熱器總是在一起的世界,那麼我只能期望我的分類器只能在那個世界中是有效的。當我把它移到另一個世界,就等於把它放在一個不屬於它的地方。應用程式最好是低風險的,因為“我不知道它在超出預設時就不奏效”這樣的藉口是不存在的。如果你以前不明白,那麼現在應該知道了吧。

這就是為什麼從一開始就要考慮到你的目標和使用者,這點很重要。開始之前一定要指定規格和設定。起一個成年人的責任,否則你只能開發一些玩具一樣的應用程式。

\"image\"

圖:在涉及更大的事情時,不要只是在不相關的資料集上丟擲很酷的流行語。

如果沒有熟練和負責任的領導力,我希望你的應用程式永遠不要涉及任何人的健康、安全、尊嚴或未來的事情......

是常識,不是魔術

我一直在使用“樣本”這個詞而不是“資料”(實際上它們是同樣的東西)來提醒你這不是魔術。 ML / AI的要點是,你使用樣本而不是描述來表達你所期望的結果 。為了使它起作用,這些樣本必須是相關的。並且,任務越複雜,你所需要的樣本就越多。你每天都使用樣本進行交流,因此你已經知道了這些內容。也許你想知道數學是否表達了不一樣的東西,實際上它沒有。請放心,常識是你最好的演算法。

\"image\"

圖:如果你想用樣本進行教學,那麼這些樣本必須是好樣本。如果你想要信任你的學生,那麼測驗必須是好測驗。

### 盲目的信任是一件可怕的事情

在你規定的條件之外,你對系統的安全性一無所知,因此請注意:

  • 如果你沒有測試它,不要相信它。

  • 如果你沒有在【環境】中測試它,請不要相信它在【環境】中的結果。

  • 如果你沒有使用【使用者群】進行測試,請不要相信【使用者群】使用它得到的結果。

  • 如果你沒有使用【資料組】進行測試,請不要相信系統在【資料組】上的結果。

  • 如果輸入異常,請不要相信你的系統輸出是合理的。考慮使用異常值檢測和安全網。

如果你使用的工具尚未經過測試,那麼你的工具導致的錯誤應該算到你頭上。A也只是一種工具而已。

檢視原文:https://towardsdatascience.com/dont-trust-ai-10a7df520925

\"image\"

連結:http://t.cn/E28YBT9

相關文章