人類本性都有傲慢與偏見,那麼人工智慧會有偏見嗎?

歐能ABC發表於2019-06-25

人們總有或多或少的刻板印象,如國籍、膚色、學歷、性別等。在人們的心目中,地方團體往往是陳詞濫調。例如,女性應該溫柔聽話,工程師和技術人員大多是男性,白人比黑人有更高的智力等等。每個人都是個體。人們對他人有不同的態度和看法是正常的。出乎意料的是,人工智慧也有一種“刻板印象”。



最近,Facebook的人工智慧實驗室進行了一項有趣的新研究。他們發現,人工智慧偏見不僅存在於國家內部,也存在於國家之間。



研究人員測試了五種流行的物件識別演算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,以瞭解每個程式的工作原理。用於測試的資料集來自不同國家的家庭,包括窮人和窮人,包括117個類別,從鞋子、肥皂到沙發。



在這項研究中,研究人員發現,當被要求識別低收入家庭時,目標識別演算法的準確度比高收入家庭低10%。隨著月收入的增加,誤差也會增加。特別是對於谷歌、微軟和亞馬遜來說,低收入家庭識別演算法的準確性很低。



與索馬利亞和布吉納法索相比,該演算法識別美國產品的精度提高了15-20%。



這種現象有很多原因。最常見的原因是,在建立演算法時,它們經常受到相關工程師的生活和背景的影響。這些人大多來自高收入階層的精英階層。他們的想法和概念是基於他們的想法和概念。人工智慧演算法也基於它們的思想和概念。



人工智慧具有強大的計算能力。在該演算法的基礎上,很容易獲得海量資料和識別資訊。然而,令人擔憂的是,它的偏見不僅在確定物件方面有偏見,而且在種族和性別歧視方面也有偏見。



研究人員測試了微軟、IBM和Facebook的人臉識別能力。他們發現白人男性的準確率高於99%,而黑人女性則有47%的錯誤率。



亞馬遜開發了一個人工智慧程式來阻止簡歷的選擇,這也顯示了對女性的歧視。選擇簡歷後,男人比女人多。包含女性角色的簡歷的權重將會降低,甚至兩所女子學院的研究生評分也會降低。可見,人工智慧也具有自我選擇和不可磨滅的“歧視”。但另一方面,人工智慧似乎是極其平等的。例如,最近發射的人工智慧機器人,它完全可以實現每個人的態度是平等的。它不會改變你對你的態度,因為你有錢,還有你的性。他會像一個人一樣溫柔地提出問題和回答問題,並及時接受批評。電話機器人好不好用?許多公司都爭先恐後地回答這個問題。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69933062/viewspace-2648664/,如需轉載,請註明出處,否則將追究法律責任。

相關文章