禁止演算法識別性別,能消解歧視嗎?

naojiti發表於2021-04-20

海外科技圈的政治正確風潮,早已不算新聞了,並且已經遍佈科技領域的各個角度。

Facebook將預設“男性在前”的新增好友logo,改為“女性在前”,並且大小相當。還提供了除男、女之外的非傳統性別供使用者選擇,比如無性別、雙性人、跨性別等等,恨不得將“性別平等”四個大字貼在腦門兒上;

在日常管理中,科技公司對政治不正確的言論也保持著十足的警惕。比如谷歌就曾因一位工程師散佈“有害無益的性別主義成見”而將其開除。

在對可能的冒犯充滿審慎的大環境下,一些反面聲音也出現了。

《紐約時報》就曾發文稱“政治正確是美國精英階層的虛偽”,也有業內人士認為“不合邏輯、肆無忌憚的政治正確正在阻礙科技創新”等等。最直接的例子,就是IBM宣佈退出了人臉識別技術的研發,原因是為了消除種族歧視,因為目前的演算法無法對黑人面部做出精準判斷。

事實上,演算法對於少數群體的偏見,已經成為困擾科技界的一大難題。

目前,歐盟的數字保護組織掀起了一項新的運動,要求像禁止在城市大規模部署面部識別一樣,禁止利用演算法來主動預測某人的性別和性取向。

用演算法判斷男女這件事,為什麼讓歐洲人覺得難以接受?對此的抗議是對科技倫理的合理討論,還是過度政治正確下對科技創新的掣肘呢?

性別二元論的演算法,真的危險嗎?

對於人工智慧新技術,歐盟有許多不可承受之重。不能接受個人資料被濫用,有了史上最嚴的隱私保護法案GDPR;為了防止技術風險,計劃五年內公共場所禁用人臉識別。

現在,為了避免歧視與偏見,連演算法對男、女性別的識別,歐盟也開始拒絕了。

如果說對黑人面部的識別不到位是源自於機器視覺技術的天然缺陷,那麼如果禁止自動性別識別,可能就直接把既定的社會規則在演算法世界的投射給掐滅了。

比如現實中,如果你是一家便利店的老闆,見到顧客的第一反應就能識別出對方的生理性別是男是女,從而判斷出自己所在商圈的性別分佈概率。但現在,歐洲的運動發起者們則希望演算法不要採集並分析性別資料。

那麼,讓演算法判斷男女這件事,真的很危險嗎?

首先,性別識別演算法的判斷基於二元論,即男或女,無法涵蓋多元人群的性別表達。

在資料上,除了Facebook這類深受“政治正確”影響的平臺,絕大多數資料標註公司都會採用性別二元論,依照傳統的生物特徵和性別理解,來為人臉進行標註。比如短髮就歸類為男人,化妝就歸類為女人。這就導致許多變性人和跨性別者,會直接被誤認。從而在一些以性別為基礎的活動中遭受不公正的待遇,比如此前柏林為慶祝同工同酬日,會向女性提供打折地鐵票,就是使用面部掃描來識別女性,這顯然會讓一些跨性別者無法被覆蓋。

其次,數字線索的失真會直接影響演算法的有效性,從而喪失預期的商業價值。

性別識別演算法被用來做什麼?一般都脫離不了商業目的或公共安全,比如可以通過識別男女來縮小追蹤嫌疑人的範圍,分析某人的聲音並彙總他們的購物習慣來提升電商平臺的推薦演算法。亞馬遜等大型科技公司銷售的商業系統中,性別分類都是標配。

但現實中機靈的商家能根據一個人的聲情行表判斷出對方的大致偏好或心理性別,進而提供個性化服務。在數字世界中,這些特徵被簡化為二元結構的時候,不可能達成預期的準確度。

比如史丹佛大學研發的“AI gaydar”系統,號稱可以 81%的準確率來識別男同性戀,但遭到了來自普林斯頓大學、谷歌等多位研究人員的質疑,認為其研究存在嚴重缺陷,模型並沒有發現不同性取向的人面部特徵有何差異。

顯然,部署這樣的演算法不僅會因為失誤而讓當事人感到冒犯,也無法給應用者帶來有益的商業價值。

科技媒體《theverge》就曾報導過一個“僅限女孩”的社交應用Giggle,試圖用面部識別來驗證使用者身份。如果演算法失誤,不僅會失去一個新使用者,恐怕還會引發輿論指責。

出於擔憂,數字權利組織Access Now與其他60多個非政府組織一起,要求歐盟委員會禁止自動性別識別這項技術。

聽到這裡,大部分人可能已經有點迷惑了,畢竟作為消費者或使用者,在商業社會中一個人被全方位地審視和判斷,早就是心照不宣的事兒了,且不管有沒有用,就算被一個演算法認錯性別,很重要嗎?直接禁止會不會矯枉過正了?

當偽君子遇上真小人

必須承認,自動性別識別在現實中的威脅並沒有那麼大,對其的抗拒,很大程度上確實是受“實現所有型別的人平等”的政治正確形態影響。

發起機構之一Access Now的員工就表示,這種性別識別技術目前的應用主要是有針對性的廣告,比如某一性別專用的App、廣告投放,未來還可能限制進入浴室/更衣室等區域。錯誤的判定結果就可能導致歧視,比如給男性物件投放汽車廣告,給女性使用者投放連衣裙廣告。

試想一下,未來廣告推薦演算法都不能判斷使用者的性別,對大家投放一致的廣告,是不是就是一個更好的社會呢?

冷靜下來想,似乎並不能成立。

這也是科技領域政治正確被反對者廣為批判的原因:

1.以科技研發為代價,卻僅僅消除了口頭歧視,而未能改變根本矛盾。

除了IBM停止人臉識別技術之外,亞馬遜也關停了給簡歷打分的AI演算法,原因是通過識別性別關鍵詞而給女性應聘者更低的分數。那麼,停用演算法,避免了公然的系統偏見,是不是就為黑人或女性創造了更平等的環境呢?顯然沒有直接關係。

男女在高管職位上的懸殊比例,不會因為把“chairman”改為中性詞“chairperson”而消失。

如果政治正確的倡議和運動沒有撼動資本制度的能量,那麼只是淪為少數群體的發洩途徑,而掌握著主控權和選擇權的依然是資本。

2.當政治正確延伸到微侵略性領域,過度保護進一步延緩創新。

包容多元群體原本是一件符合人類基本道德觀的好事,可是當被用於批判一些微侵略事件——即對任何邊緣化或少數群體有意或無意地表示負面偏見的評論,如果一個男性以傲慢的態度向女性解釋一些簡單的東西,就會被指責為“爹味”、“普且信”,引起摩擦。

過於泛化的政治正確,會帶來更多的身份衝突,導致依賴團隊協作的科技創新,群體之間的合作變得更加困難。

一位美國工程師就透露,由於希望證明女性和男性一樣擅長工程,她有意識地避免在會議上坐在其他女性旁邊,儘量自己解決問題,避免尋求幫助。

顯然,在受政治正確約束的文化中,自我保護變得比創造性工作更加重要,不僅優勢人群如白人男性擔心被指責、不敢直接解決問題,那麼被過度保護的群體也可能與潛在的支援隔離開來,變得效率更低,技能提升速度也更慢。

如果說公然的歧視與偏見是“真小人”,那麼過度的政治正確又容易淪為“偽君子”,被視作一種無法真正解決問題的偽善。

那麼,有沒有第三種可能,建立一個“真君子”的科技世界呢?

尋找第三種可能

如果說當下的資料隱私保護運動,是為了不讓科技的潛在缺陷傷害少數群體或邊緣人群。但顯然,一個理想的數字世界,並不會因此自動到來,除了“科技不能做什麼”,或許還應該主動去思考“科技能夠為一個更包容、多元的社會做什麼”。

舉個最簡單的例子,谷歌輸入大量“穿白大褂、帶聽診器”的男性照片,讓AI將醫生形象與男性聯絡在一起。從統計學的角度,演算法形成偏見似乎情有可原,因為一直以來都是這樣運作的,但比起政治正確的制衡與爭議,從根源上改變少數群體在數字世界的“失聲”局面,或許更具有建設性。

我們知道,演算法對黑人、女性等的偏見,一個最主要的原因就是訓練語料的缺失。

資料顯示,全世界有42%,也就是11億的女性都沒有銀行賬戶,這自然會導致金融演算法對女性打出更低的分級,讓女性比男性更難從銀行中借貸。所以在涉及金融科技產品時,更應該主動將女性需求納入到產品和服務當中,比如考慮到女性的風險偏好,幫助縮小兩性在投資領域的差距。

再比如,今天科技領域普遍存在的關鍵工程崗位的男女性別比例失衡問題。在努力改變性別定勢思維與偏見的同時,或許察覺到女性在STEAMD學科,即科學、技術、工程、藝術和數學領域上過早的限制,才是縮小未來性別差距的真正方式,也能為IT、AI等領域帶來源源不斷的新生力量。

從根本上建立起相關支援體系,鼓勵少數群體實現自身發展,才是剷除AI偏見、建立多元化社會的起點。

當下的AI是一個天生的偏見者,只有追溯到它出生的地方去尋求改變,一個天下大同的理想數字世界才會真正走來。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31561483/viewspace-2769004/,如需轉載,請註明出處,否則將追究法律責任。

相關文章