大家好,我是 零日情報局。
本文首發於公眾號 零日情報局,微信ID:lingriqingbaoju。
當人臉識別學會“歧視”,混亂開始向刑事、司法、醫療各領域蔓延,甚至危及人類命運。
最近,美研究機構(NIST)分析了99家開發商的189種人臉識別技術演算法,意外發現,人臉識別技術曾被詬病的“歧視”問題,已成為近乎普遍的情況。
相比於普通白人男性,在少數族裔及女性面前,人臉識別技術錯誤率高出100倍。
說白了就是,皮膚不夠白,會遭到人臉識別技術的“歧視”。
一項代表未來,並逐漸被應用在刑事司法等各領域的全新技術,竟普遍存在歧視問題?不由讓人想到,頭條上那些關於人臉識別技術的獵奇新聞,可能就發生在我們身邊。
那個曾經被谷歌人臉識別技術,判定為“大猩猩”的黑人兄弟,可能到今年,還面臨著無法識別,或者被判定成任意“物種”的可能。
至於亞馬遜的人臉識別技術,其誤判率同樣高居不下。多達31%的深膚色女性被錯認為男性,在當前大多數人臉識別技術中,她們都逃不掉“被變性”的命運。
而更扯的是,有權威研究機構發現,將深膚色女性誤判為男性的比例,遠遠高於淺膚色女性僅1%的錯判率。
雖然相對而言,亞馬遜的技術在業界已經算好的,可人臉識別不是一個比爛的技術。
(膚色較黑的女性識別誤差率高達 31%)
總之,不管是用谷歌、亞馬遜,還是其他人臉識別技術,深膚色人種顯而易見的被差別對待了。
相信沒有人會對一項存在“歧視”的技術有好感,誰知道鏡頭下的自己會被錯認成什麼?
影像大資料:人臉識別精準的關鍵
技術分析,原理為先。聊人臉識別技術,自然也得先從根上下手。
從原理上來說,當前主流的人臉識別技術,主要有基於幾何特徵、模板、模型三大類,但不管是哪一類,由於人臉識別軟體是透過將被掃描的面孔與面部影像資料庫進行匹配來進行識別,所以大型可共享的資料庫成了準確判別人臉的關鍵。
再就是,人臉識別作為一項AI技術,其精準性,很大程度上,還取決於大量“閱讀”照片所培養出來的辨識能力。
這也就說明,現階段技術本身出現的歧視問題,幾乎是面部影像大資料庫和“閱讀”照片樣本上出了問題。
人賦予技術歧視
歧視源於偏見,而技術的“歧視”,則來自研發群體的偏見與盲點。
說出來,多數人可能很難相信,通常以嚴謹著稱的科技公司,用於測試或訓練人臉識別技術面部分析系統的資料集,根本不具有代表性。
因為在看似龐大的資料庫中,多數都是白人、男性或者說是西方人。
此前,IBM公司報告,就曾指出在學術研究中引用最多的三種面部影像,81%或更多的人屬於淺膚色,其實就是白種人。
而這種,資料樣本庫人群分佈不均的問題,普遍存在於技術公司的研發過程,成為了人臉識別技術“歧視”的關鍵。
歸根結底,人臉識別誤判的背後,是人賦予技術的“種族歧視”。
人臉識別患上臉盲症
技術看起來歧視的是“有色人種”代表的少數,可在實際應用上,卻讓原本的黑科技,變成了擺設。
英國倫敦的一次聽證會上,當地警察局稱最新部署的人臉識別系統,準確率僅為2%,反過來說,在每一次識別中,有著高達98%的誤判率。
而這不僅沒有幫助警方逮捕到任何一名罪犯,反而讓警方在日常工作,將大量神似犯罪分子的普通人,帶回警局。
科技是為了減少麻煩,而不是增加麻煩。對一項以精準度判斷效能的新技術來說,這樣的識別資料,不只是慘不忍睹,更讓人懷疑技術的實用性。
更可怕的是,這樣超高錯判率的識別,是在英國警方使用人臉識別系統後,近乎普遍的現象。
當染上“種族歧視”色彩的人臉識別技術,臉盲到如此程度,零日忍不住要問一句,這樣的人臉識別技術到底有何用?
人臉識別加劇種族歧視
面對人臉識別技術的“歧視”問題,沒有人會不為所動。作為技術的嚐鮮者,政治圈最先坐不住了。
以西方政客為代表,來自政界的擔憂要明顯高於技術圈本身,畢竟“種族歧視”可是一個隨時可能爆炸的“雷區”。
美國俄亥俄州共和黨人士就曾公開表示,“如果人臉識別系統犯了錯,而這些錯誤對非洲裔美國人和有色人種的影響更大,這直接違反了美國憲法第一修正案和第四修正案賦予的自由。”
當一項技術、一項廣泛應用在各領域的技術,針對部分人存在鮮明的偏差時,其所帶來的後果,更是難以有效估量的。
除此之外,人臉識別技術不可否認的監視作用,也會起到種族監視的作用,由此從個人和群體中產生和抽象出來的資料,在資料庫內部和不同資料庫之間記錄,傳播和交換。
這就意味著,逐漸被廣泛應用的人臉識別技術,將進一步加劇種族歧視問題。
零日反思
隨著人臉識別變得越來越普遍,政策專家和決策者越來越關注技術本身的侷限性。如何讓人臉識別技術,對黑人和白人“一視同仁”,可能直接關乎著人臉識別技術未來的普及程度。
畢竟,一項具有跨時代意義的技術,不可能只為少數人服務。
零日情報局作品
微信公眾號:lingriqingbaoju
如需轉載,請後臺留言
歡迎分享朋友圈