機器人誤觸防熊噴霧24人住院?這個網站收集AI‘翻車’案例,所有‘罪證’都不放過

大数据文摘發表於2020-12-14

還記得特斯拉自動駕駛事故嗎?

還記得人臉識別種族歧視嗎?

AI設計初衷本是造福人類,但是卻因技術或人為原因而經常“翻車”,有些“翻車”可能只是鬧個笑話,有些“翻車”卻可能奪走無辜人的生命。

不止AI,許多技術剛出現時都是如此,而人們應對這類問題的方式也很簡單——收集儘可能多的“翻車”資料,建立“翻車”資料集,以警示後人的研究。

如今,AI “翻車”資料集網站也被建立起來,名為 AIID(AI 事故資料庫,AI Incident Database),網址如下:

https://incidentdatabase.ai/

亞馬遜機器人誤觸“防熊噴霧”太傻了吧?

目前AIID資料庫已經收集了78份AI事故記錄,並有超過1000份關於這些記錄的報導,其中,比較多的是自動駕駛、人臉識別、機器人等相關內容。

從目前的列表來看,谷歌、亞馬遜、Facebook等大型企業在列表中頻頻出現,比如亞馬遜著名的機器人誤觸防熊噴霧罐誤傷24名員工的事件。

圖片

從相關報導的數量可以看出來,這個機器人與驅熊噴霧事件當時很火。

文摘菌心想,發生甚麼事了?

哦,原來是在2018年12月6日,亞馬遜在新澤西州的一個倉庫中,一個機器人不小心將一瓶驅熊噴霧扎破,致使24名亞馬遜員工受傷,當場就被送往醫院。

圖片

據瞭解,事故的原因是“一臺自動化機器意外刺穿了一個9盎司重的驅熊噴霧罐,釋放出濃縮的噴霧”,驅熊噴霧的主要成分是辣椒素。

事後,24名員工並無大礙,很快出了院。

但是Incident 3的受害者就沒有那麼幸運了,2018年10月29日,Lion Air的一架波音737max在升空後,飛機上的防失速飛行控制系統把機頭向下推了26次,儘管飛行員對每次機頭朝下的動作都會再次拉起機頭,但最後系統還是把飛機以每小時500多英里的速度帶向大海。

在這場空難中,189人失去了生命。

最新案例:演算法阻止學生進入大學

Incident 78是目前AIID的最新案例。

因為疫情的影響,美國IB(International Baccalaureate)專案取消了考試,改用演算法預測學生的最終成績,演算法根據的是學生以往的成績和表現。

這個成績將決定許多美國學生是否能被大學錄取和成功獲取獎學金,很多學生、家長和老師都認為這些預測是錯誤的。他們說,許多學生得到了很難相信的低分。

圖片

超過15000名家長、學生和教師在網上簽名請願,要求 IB“採用不同的評分方法,使評分更加公平。”

但是IB拒絕回答有關其系統的問題,但表示已經對比了過去五年的結果,失望的學生可以使用現有的上訴程式,這需要付費。該基金會發布的統計摘要顯示,今年的平均分數略高於去年,而且成績分佈也與去年類似。

所學校的數學老師說,IB 應該向外界透露其模型的全部運作情況,以供審查。他和一個擁有數學博士學位的同事一直對這個設計感到困惑,因為有幾個學生因為得到的成績遠遠低於他們老師的預期而失去了獎學金。

已開發APP,需要更多案例

在收集完第一階段的78個案例後,Sean McGregor 開發了一個 Discover APP,既可以支援對第1階段收集的超過1k的報告進行索引和清理,也能進行搜尋。

比如一個作人臉識別的公司想知道以前人臉識別出過什麼問題,就可以搜尋“facial report”來查詢資料庫收錄的以往在人臉識別領域AI“翻過的車”。

圖片圖片

很顯然,目前的“翻車”合集肯定不能涵蓋全球所有的AI事故,因此,網站也號召所有從業人員提交其他事故報告。

報告的事故需要滿足兩個條件:

  • 其中涉及一個可識別的智慧系統
  • 真正的傷害確實或可能合理地來自於已確定的行為、決定或事件

具體來說,你可以透過APP單個新增或者批次新增你瞭解的AI事故,包括“題目”、“報導”、“日期”等資訊。

目前,AIID 由人工智慧合作伙伴組織(PAI)管理,其維護資金來源於XPRIZE 基金會(PAI 合作伙伴)。

Powered by Froala Editor

大資料文摘
大資料文摘

秉承“普及資料思維,傳播資料文化,助⼒產業發展”的企業⽂化,我們專注於資料領域的資訊、案例、技術,形成了“媒體+教育+⼈才服務”的良性⽣態,致⼒於打造精準資料科學社群。

相關文章