1481028589-6526-d4ae14e34b7f29ce940b315cb-th

圖:人工智慧選美比賽的獲勝者,該結果表現出了對非白人面孔的歧視(來源:Beauty.AI)

過去一年,可以說我們親眼見證了人工智慧的爆發:無人駕駛汽車上路、語音識別屢屢突破、機器翻譯更上層樓、人工智慧甚至還掌握了古老複雜的圍棋……看起來似乎人工智慧很快就將無所不能了。

但是,雖然人工智慧取得了如此之多的成功,但同時它也鬧出了很多笑話,其中一些事件更是冒犯了一些群體和個人。瞭解這些人工智慧的「失敗」案例,能夠幫助我們防微杜漸,預防未來可能出現的更嚴重的人工智慧失誤。路易斯維爾大學 Cybersecurity Lab 主任 Roman Yampolskiy 近日的一篇論文《Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures》概述了人工智慧「與這樣的系統被設計所表現的智慧直接相關的」失敗的歷史。

據 Yampolskiy 表示,這些型別的失敗都可歸因於這些人工智慧系統在學習階段的錯誤或在表現階段的錯誤。

這裡 TechRepublic 所列舉的人工智慧十大失敗事件是根據 Yampolskiy 的論文和多位人工智慧專家的意見整理而成的。

1. 為預測未來犯罪所打造的人工智慧是種族主義的

Northpointe 公司開發了一個設計用來預測被指控的罪犯再次犯罪的機率的人工智慧系統。這個被 Gawker 稱為「少數派報告型別」(借鑑自 Philip K. Dick 的一篇小說和衍生電影)的演算法被指控帶有種族偏見,因為相比於其它種族,黑人罪犯被標註為未來可能再次犯罪的概率要大得多。而另一家媒體 ProPublica 還發現 Northpointe 的演算法「即使不管種族上的問題,也通常不能有效地預測。」

2. 一個視訊遊戲中的非玩家角色創造出創造者規劃之外的武器

今年 6 月,一個加入了人工智慧的視訊遊戲 Elite: Dangerous 表現出了一些其創造者計劃之外的能力:該人工智慧有能力創造出超出遊戲設定之外的超級武器。據一家遊戲網站表示:「玩家會遭遇那些裝備有能將他們的戰艦粉碎的可笑武器的戰艦。」這些武器後來被該遊戲的開發者撤下了。

3. 機器人使一個兒童受傷

今年 7 月份,一個由 Knightscope 平臺所創造的一個所謂的「打擊犯罪機器人(crime fighting robot)」在矽谷的一家商場裡使一個 16 月大的男童受傷。洛杉磯時報援引該公司的話稱這場意外是一個「奇怪的事故(freakish accident)」。

4. 特斯拉 Autopilot 模式下的死亡

今年五月份,在佛羅里達的一條高速公路上,Joshua Brown 駕駛著一輛開啟了 Autopilot 模式的特斯拉與一輛拖車發生了碰撞並最終隕命。這是涉及該公司的第一例死亡事件。事故發生後,特斯拉已經發布了對其 Autopilot 軟體的重大更新,Elon Musk 聲稱該更新可以防止這樣的碰撞發生。此外今年也還出現了其它一些與 Autopilot 相關的死亡事故,包括髮生在中國的一起,但這些其它事故並不與人工智慧的失敗直接相關。

5. 微軟的聊天機器人 Tay 釋出種族主義、性別歧視和攻擊同性戀言論

為了和年輕的消費者搞好關係,今年春季的時候微軟在 Twitter 上釋出了一個人工智慧驅動的聊天機器人 Tay。Tay 原本是為模仿一個十幾歲的美國青少年女孩而設計的,但在和使用者開放對話後不到一天的時間裡,它就變成了一個「熱愛希特勒、譏諷女權主義」的噴子。微軟很快就下線了 Tay,並宣佈將會對 Tay 的演算法進行調整。另外提一點,近日微軟新的英語聊天機器人 Zo 又在 Kik 平臺上線了(https://earlyaccess.zo.ai/),希望這一次它會表現更好吧。

6. 人工智慧評美有種族歧視

據大賽網站稱,在「首屆國際人工智慧選美大賽」上,基於「能準確評估人類審美與健康標準的演算法」的機器人專家組對面部進行評判。但由於未對人工智慧提供多樣的訓練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,「美人在模式識別器中」。

7.Pokémon Go 使得遊戲玩家集中到白人社群

7 月份,Pokémon Go 釋出之後,多個使用者注意到極少的 Pokémon 位於黑人社群。據 Mint 的首席資料官 Anu Tewary 說,這是因為演算法的發明者沒有提供多樣的訓練集,在黑人社群上沒有花費時間。

8. 谷歌人工智慧 AlphaGo,敗給了李世乭一局

在 3 月份的圍棋大賽中,谷歌的人工智慧系統 AlphaGo 4 比 1 擊敗了韓國李世乭。失敗的一局表明人工智慧演算法如今還不完美。

新南威爾斯大學的人工智慧教授 Toby Walsh 說「看起來,李世乭發現了蒙特卡洛樹搜尋中的一個弱點。」雖然被視為人工智慧的一次失敗,但 Yampolskiy 說此次失敗「可認為在正常操作規範之內。」

9. 中國的面部識別學習預測罪犯,有偏見

上海交通大學的兩個研究人員發表了一篇名為「Automated Inference on Criminality using Face Images」的論文。據 Mirror 報導,他們「將 1856 張面部圖片(一半是罪犯)饋送進電腦並進行分析」。在此研究中,研究人員總結說「有一些可識別的結構特徵來預測犯罪,比如脣曲率(lip curvature)、眼內角距(eye inner corner distance),以及所謂的口鼻角度(nose-mouth angle)。」領域內的許多人質疑這些結果和道德問題。

10. 保險公司使用 Facebook 資料觀察出現問題的概率,有偏見

今年,英格蘭最大的汽車保險商 Admiral Insurance 打算使用 Facebook 使用者的推文資料觀察社交網站與好司機之間的聯絡。

雖然這不是一次直接的失敗,確是對人工智慧的濫用。Walsh 說「Facebook 在資料限制上做的很好」。這一被稱為「first car quote」的專案未能落地,因為 Facebook 限制該公司獲取資料,援引條款稱國營企業不能「使用來自 Facebook 的資料做關於資質的決策,包括支援或反對一項應用,以及貸款利率應該提多少等。」

在以上案例的證明下,人工智慧系統極其傾向於有偏見。在多樣的資料集上訓練機器學習演算法,從而避免偏見變得極其重要。隨著人工智慧能力的增加,確保研究的適當檢測、資料多樣性和道德標準也更為重要。

原文連結:http://www.techrepublic.com/article/top-10-ai-failures-of-2016/

來自:機器之心