AI及其判別演算法

Tybyq發表於2018-11-06

人工智慧已經風靡整個行業。它正在傳播具有高度先進技術痕跡的寶石,並以其簡單的觸感,改變了科技世界的面貌。隨著它為捕捉不同行業鋪平道路,它影響最新趨勢和激動人心的複雜性,最終給營銷人員,開發人員和創意藝術家帶來巨大壓力。

然而,由於有關人工智慧演算法的一些令人震驚的更新已經浮現在行業中,科技巨頭之間激起了許多相互矛盾的觀點和判斷。據報導,人工智慧演算法被認為會產生種族主義和偏見的歧視。

AI驅動的演算法以無數的方式影響著我們的生活。從提供表明您遇到麻煩的技術,在駕駛時潛伏在您附近,識別您的聲音並滿足您的所有需求,而您甚至無需移動手指。由於其廣泛的方法和不可逾越的好處,它幫助設計師建立令人難以置信的創意設計和開發人員,以生產可以像人腦一樣的裝置。今天,AI機器人被用作為維基百科等偉大網站撰寫合法文章的客戶支援的重要來源。

當我們揭示人工智慧給世界及其人民帶來的各種優勢和貢獻時,很難相信它也會產生如此嚴重的歧視。在許多主要報導中,人工智慧驅動的機器人被視為刺激歧視行為。請在下面詳細瞭解它們:

招聘申請人

面部識別軟體現在已經成為一個受關注的話題,因為它正在傳播性別消除。根據IT研究提出的研究,當識別具有較暗膚色的人的面部時,該系統的執行效率較低。與此同時,亞馬遜也忽略了人工智慧招聘系統,因為它是以性別中立的方式對候選人進行評級而不是承認他們的專業知識。隨著這些問題開始在科技行業引起轟動,許多領先的專家提出了他們對類似問題的觀察和研究。像Cathy O'Neil和Virginia Eubanks這樣的專家推出了他們的暢銷書籍“數學毀滅武器”和“ 自動化不平等” 分別以令人難以置信的發現轟動了整個行業。 

受害無辜者

PredPol被用於美國的幾個州 - 一個識別犯罪率較高的地方的系統被採取行動,以減少人類的偏見。然而,在2016年,根據人權資料分析小組提出的調查結果,“該軟體可能會使警方不公平地對某些社群收費。” 

新增另一個支援的研究來證明這一點,提出了2012年的研究由電氣和電子工程師協會(IEEE)表示,由於警方偵察行動的一部分,關於面部識別工作僅相機犯罪嫌疑人達5-10%,這在識別非裔美國人時表現得最不準確。這項偉大的研究清楚地表明瞭對無辜黑人公民的巨大歧視。

機器人債務恢復計劃

Centrelink債務追回軟體的新案例引發了許多嚴重指責,即人工智慧是造成人類偏見的因素。超過18個月,人們被錯誤地定位。超過20,000名福利受助人被指控債務,後來被發現幾乎沒有錢。由於系統中發現了一些嚴重的缺陷,這個巨大的問題被觸發了。

寫得不好的演算法傳播人類的偏見

最近發生的一些事件突出了AI演算法寫得不好的事實。Facebook註冊時可能不會歧視其13億會員; 然而,在2018年2月,Facebook允許營銷人員根據關於哪類人可以檢視這些廣告的標準上傳有針對性的廣告,包括種族,性取向,宗教和種族的差異。

此外,在另一個帳戶上,當微軟Tay,程式設計為學習內容的人工智慧聊天機器人,人們在模仿人類對話時發推文時,新聞得到了支援。當Tay 因為許多惡意巨魔變成“ 一個充滿希特勒的骯髒機器人 ” 時,事情出了問題。

此外,早在2015年,一項研究表明,谷歌搜尋執行長的圖片僅佔11%的女性,而在美國,執行長職位的比例恰好為27%。再過幾天,一項新的研究顯示,男性申請人獲得了所有高薪工作。Anupam Datta 在匹茲堡的卡內基梅隆大學展示了這項研究。根據Datta的說法,Google演算法將男性視為最適合所有高薪工作和領導職位的申請人,從使用者的行為中學習。

由AI-Bots評判的2016年選美比賽的失敗

2016年3月,舉辦了一場大型選美比賽,來自印度和非洲的60多萬男女參加了比賽。參與者被要求傳送他們的自拍,三個機器人應該判斷事件。機器人被程式設計以比較演員和模特的面部特徵。儘管在結果公佈時收集了超過50,000家餐館,但據觀察,近44名獲獎者是白人。青年實驗室的研究人員在研究情況後表示,機器人拒絕考慮光線不良影響的黑皮膚人物的照片。他們沒有用演算法來判斷更暗的膚色。

包起來

在計劃盲目依賴機器學習系統之前,深入瞭解演算法。它可能被證明是非常有益的,同時也是傳播人類偏見的一個原因。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31557424/viewspace-2218945/,如需轉載,請註明出處,否則將追究法律責任。

相關文章