AI與女性之間的關係,似乎一直不太好。
提到AI,我們看到的往往是“AI篩選簡歷帶有性別歧視,更偏向於男性員工”“AI取代秘書、翻譯和速記正在讓女性失業”“一切AI助理都是女性配音加重男權主義”……
AI作為人類智慧與經驗的高度結晶,同樣也繼承了人類社會文化中糟粕的部分,並且會毫無遮掩展示出來。
但今天我們要講的這個故事,是關於AI如何保護女性遠離網路暴力。
女記者、女政治家和女權活動家的共同罪過
你遭受過網路暴力嗎?
對於大多數人來說,網路暴力離我們很遠。但即使在某一次莫名為微博噴子騷擾時,男性和女性也一定會有不同的體驗。對於男性來說,遭到的辱罵通常是“傻X”一類的常規詞彙,或者是對家人的“問候”。而對於女性來說,往往會遭受到對自己身材、外貌的攻擊,以及性方面的騷擾。
在大赦國際的調查中發現,這種情況非常普遍,並且在Twitter這樣的公共話語空間中已經上升到了危害女性人權的程度。
今年以來,大赦國際陸續推出了長達八章的調查報告,講述普通女性、女記者、女政治家是如何因為自己的女性身份而在Twitter中飽受噴子們的侮辱的。而篇調查報告的名稱就是《Toxic Twitter》——有毒的推特。
我們可以摘幾組調查報告中出現的資料:
“2017年全年,有110萬條辱罵性的推文被髮給了778名女記者和政治家。”
“在傳送給女性的推文中,有7.1%都涉及到攻擊和辱罵。”
“在辱罵女性的推文中,提及黑人女性推文的比率比白人女性高84%。”
而那些辱罵女性推文的大概內容又是什麼呢?
有這樣的:
還有這樣的:
如圖所示,一切的辱罵和威脅,總與性有關,時時刻刻強調著女性身份的弱勢之處。
在調查時,女政治家和記者也表示,因為性別而遭受到的攻擊,是她們職業路上非常重要的困難和障礙。當男性遭到攻擊時,被攻擊的是他的行為和他的工作成果。可當女性遭受到攻擊時,噴子們總會瞄準她們的性別。
彷彿生而為女人,應當抱歉。
演算法除了推動流量湧動,還推動了什麼?
而這一切中有Twitter哪些責任呢?
從基本上而言,Twitter沒有足夠強大的敏感詞稽核和過濾機制,不能從源頭控制這些辱罵性的語言。
最主要的是,Twitter演算法的向智慧推薦方向調整後,原本相對封閉的關注體系變得更加開放了。在過去那些女政治家、女記者和普通女性的賬號以及推文內容只會顯示在關注者的Timeline上。但資訊流變得更加開放後,更大的流量同樣也帶來了黑子和極端性別主義者——同樣這些辱罵女性的推文雖然來自普通人,但在全新的演算法機制下,即使他們沒有什麼關注者,也會獲得不少曝光。一方面加重了語言傷害的能量,另一方面也讓那些黑子可以更方便地找到彼此,形成組織對女性進行攻擊。
大赦國際也表示,他們已經數次向Twitter反映了這些問題,卻一直沒有得到滿意的答覆。
其實在這件事上,Twitter顯得有些無辜。畢竟演算法調整增強了各個圈層的互相瞭解,本意上是好的。我們也知道,透過人工智慧識別出侮辱性詞彙,尤其是針對性別的侮辱性詞彙並不是那麼容易。就像“if she was raped,would she keep her mouth shut?”(如果強姦了她,她能夠閉上嘴嗎?)這句話從詞彙上看來並沒有什麼不對,但是聯合語境看來卻是在用非常暴力的性犯罪來威脅女性停止發聲。
但演算法造成問題,還要演算法來解決。
當AI被把握在女性手中
AI不能理解語境嗎?顯然不是,大量涉及到長本文語義理解的演算法就是幹這個的。只不過面對性別侮辱這類相對複雜的語境,需要大量的訓練樣本和反覆除錯。
當得不到Twitter的支援時,大赦國際做了兩件事:
第一是找了6500位志願者,在推特上分別尋找收集那些侮辱女性的言論和正常言論,作為標註資料累積,建立起了全世界最大的“仇女言論”資料集。
第二是找到Element AI,一家提供AI既服務的創業企業,利用資料進行訓練和分析,最終得出了上述完整的資料,並且訓練出了一個可以判斷女性侮辱言論的神經網路模型。大赦國際在報告中提出,目前這一模型的準確度已經達到了50%,並且還在不斷提高中。
當然最後的結局沒有人們想象中那麼美好,Twitter並沒有直接採用模型,藉此保護平臺上的女性使用者。但透過這兩件事,大赦國際明確了自己的需求,給Twitter提了很多富有價值的意見,例如Twitter應該改進舉報機制,讓關於女性侮辱的舉報可以得到更多重視;Twitter應該更加清晰的解釋平臺過濾演算法如何執行,如何識別那些針對女性的語言暴力;Twitter應該加強對女性使用者的教育,提醒她們如何保護自己;更重要的是,Twitter應該更多的公開相關資料,讓更多人知道女性正在社交媒體上承受著更多壓力。
打破技術即權力:保護她和他們的AI
這件事情其實帶來了一個非常有趣的思考:當AI發展的愈發成熟,技術即權力的魔咒是不是正在被默默打破?
女性如今之所以處在一個讓她們略感不適的地位之中,很大一部分原因在於對技術的掌控不如男性,所以她們不能創造和男性一樣多的價值。千百年前女性不知道如何開墾更多土地種植糧食;幾十年前女性不知道如何使用電腦;到今年女性不知道Twitter的演算法為什麼不能過濾掉那些仇恨言論。
而隨著科技的發展,阻礙女性獲取技術的門檻正在逐漸被磨平。從生理結構上天然的體力差別,到社會和家庭身份對於時間的佔用,直到今天。
我們發現,號召志願者收集資料,加上一家願意幫忙的AI服務企業,女性可以輕易打破Twitter的“男權謊言”——你說演算法做不到?她們就去證明演算法可以做到。
當AI模型的開發越來越走向低門檻,當谷歌和百度都在推出小孩子都能使用的模型訓練平臺,這便意味著(綜合來看)開發經驗更少的女性群體也可以創造和利用AI的技術能力。
這也是AI作為工具而言最重要的價值,將以往高密度的經驗與智慧整合為人人可以利用的演算法,讓馬路殺手像老司機一樣行駛在路上,讓分不清PS和Photoshop的人也能拍出好照片。如今對於演算法開發過程的簡易化,更加提升了AI的工具價值。讓我們感到欣慰的,不僅僅是女性開始利用AI的力量保護自己、為自己發聲,而是大赦國際的成功是可以複製的,除了那些在社交媒體上被辱罵的女性,其他的弱勢群體其實也可以利用類似的方式發出聲響和自我拯救。
AI正在保護她,並且還可以保護他們。