人工智慧“歧視”窮人,AI竟然如此“拜金”?!
包括谷歌、微軟和亞馬遜在內的科技公司的物體識別演算法,在識別低收入國家的物品時,錯誤率更高,演算法表現得也更差。
這是Facebook人工智慧實驗室的一項新研究。同時,該研究還表明,人工智慧偏見不僅存在於國家內部,還歧視不同國家。
在低收入家庭中,演算法的準確率最低可達20%
在這項研究中,研究人員測試了五種已有的流行的物體識別演算法 - Microsoft Azure,Clarifai,Google Cloud Vision,Amazon Rekognition和IBM Watson--以瞭解每個演算法程式識別從全球資料集中收集的家庭日用品的效果。
該家庭日用品的資料集包括117個類別,從鞋子到肥皂到沙發幾乎所有物品以及不同層次的家庭收入和地理位置,從蒲隆地的一個每月收入27美元的家庭到烏克蘭的一個每月收入10,090美元的家庭。
研究人員發現,物體識別演算法在被要求識別月收入50美元的家庭物品時比物品價值超過3,500美元的家庭誤差大約增加10%。準確度的絕對差異甚至更大:與索馬利亞和布吉納法索的物品相比,演算法在識別美國家庭物品時的效果提高了15%至20%。
這些發現被認為“在一系列用於影像識別的商業雲服務中是一致的”。
這種偏見的產生有許多根本原因,也是AI中眾所周知的問題。其中最常見的原因是用於建立演算法的訓練資料通常反映了負責這一演算法的工程師的生活和背景。由於這些人通常是來自高收入國家的白人,他們開發的程式也是在這樣的環境下訓練出來的。
人工智慧偏見的最著名的例子之一是面部識別演算法,在識別女性面部特別是“有色人種”女性時,這些演算法通常表現更差。這種偏見可以進入各種系統,從用於計算假釋刑期的演算法到在求職面試之前的簡歷評估。
在物體識別演算法的情況下,研究者認為,有一些可能導致錯誤的原因:首先,用於建立系統的訓練資料在地理上受到限制,其次,他們無法識別文化差異。
寫視覺演算法訓練的資料主要來自歐洲和北美,並且“在人口眾多的地理區域中嚴重欠取樣視覺場景,特別是在非洲,印度,中國和東南亞。”
偏差可能由多個因素引起,包括不完整的訓練資料
同樣,大多數影像資料集使用英語名詞作為初始語言並相應地收集資料。這意味著物品的類別可能不夠完整,或者同一個物品在不同的國家或地區看起來並不相同。例如,洗碗皂。在一些國家這些香皂就是肥皂,而在另一個國家是盛在容器裡的液體。同樣的,婚禮,在美國和印度看起來也大不相同。
為什麼弄清楚這點很重要?
首先,這意味著使用這些演算法建立的任何系統對來自低收入和非西方國家的人來說都會表現更差。由於美國科技公司是人工智慧的全球領導者,這可能會影響從照片儲存服務和影像搜尋功能到更重要的系統,比如自動安全攝像頭和自動駕駛汽車。
但這可能只是冰山一角。視覺演算法相對容易評估這些偏差,但是建立這些程式的管道也為整個行業提供了充分的演算法,而這些演算法永遠不會受到同樣的審查。
“審計AI系統並不一定容易,因為沒有執行此類審計的標準基準,”幫助開展此項研究的Facebook AI的研究科學家Laurens van der Maaten告訴The Verge。 “在打擊這種偏見方面,最重要的一步是在設定用於訓練系統的訓練資料的收集過程時更加謹慎。”
矽谷經常推廣其產品,特別是近年來它的人工智慧產品。作為平等主義者,所有人都可以使用。 這樣的研究表明,科技公司繼續以它們自己的形象和理解去評估,定義和塑造世界。
作者:James Vincent
譯自:THE VERGE
圖源:THE VERGE
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2648296/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 黑人窮、毛子壞、華人衰? 聊聊遊戲裡的"種族歧視"遊戲
- GIF轉換成視訊竟然如此清晰
- 動態代理竟然如此簡單!
- css 的 filter屬性竟然如此好玩CSSFilter
- 研究:美亞裔女性在IT職場人數眾多 但感到受歧視
- 德國聯邦反歧視工作組:調查顯示三分之一德國人認為自己受到過歧視
- 語音識別技術竟然發展如此迅速
- 『「新窮人」為何如此熱衷於消費』今日資料行業日報(2017.6.20)行業
- 人工智慧如此高薪,這10個AI開源專案它不香嗎?人工智慧高薪AI
- 科技行業的年齡歧視行業
- 軟體業黑暗內幕:年齡歧視
- MIT 因 AI 資料集涉嫌種族歧視致歉並宣佈永久下架MITAI
- 越是窮人,就越需要大資料大資料
- papi醬:人不窮怎麼當網紅API
- Python實現效能自動化測試竟然如此簡單Python
- 國產ChatGPT機器人竟然是它,還能陪聊還會AI繪畫!ChatGPT機器人AI
- 窮人幫窮人--大英自學輔導的破解過程和註冊碼---請進! (1千字)
- A Memory of Tomorrow: 人工智慧AI,都是反人類的人工智慧AI
- 普林斯頓大學:研究發現人工智慧系統存在種族歧視傾向人工智慧
- AI在用 | AI捲起「窮鬼健身」,15天漲粉上萬AI
- YouGov:39%的美國人認為針對STEM女性的獎學金是性別歧視Go
- 拒絕白人與亞洲人同框,Meta影像生成器的「歧視」,被人挖出來了
- Rainyday.js – 傻眼了!竟然有如此逼真的雨滴效果AIJS
- 日廠遊戲定價怎能如此嚇人?遊戲
- YouGov:美國富人和窮人有很多共同之處Go
- 窮人唯一的資本就是時間
- 投標人認為招標檔案存在歧視性條款的,可在何時提出質疑
- Redis作者Antirez經歷的「性別歧視」風波Redis
- 現在人們交流語言的歧義越來越大了
- 禁止演算法識別性別,能消解歧視嗎?演算法
- 對 IT 行業性別歧視的另一種不同看法行業
- AI自己也沒想到,五竹叔竟然是……AI
- AI人工智慧的4個未來趨勢,人類集體失業?AI人工智慧
- 人民網:超80%的消費者認為受到蘋果歧視蘋果
- Google AI的焦慮:拆分搜尋和人工智慧部門,Jeff Dean任AI業務負責人GoAI人工智慧
- 天雷滾滾!機器人竟然還會懷孕機器人
- 新火種AI | 人工智慧在未來真的會摧毀人類嗎?AI人工智慧
- AI 名人堂:世界人工智慧60年60位名人榜AI人工智慧