6月20日,由微軟聯合創始人艾倫(Paul Allen)建立的艾倫人工智慧研究所(Allen Institute for Artificial Intelligence)釋出報告稱,要想在電腦科學研究領域達到男女平等至少還要100年。
這份報告採集了電腦科學領域1970至2018年間刊登的287萬篇論文,並根據作者的姓名對其性別加以概率分析。2018年,電腦科學論文的男性作者約為47.5萬人次,而女性約為17.5萬人次。作為對比,報告還採集了1163萬篇醫學文獻的作者姓名,同時對作者的性別加以分析。
報告發現,即使在最樂觀的情況下,在電腦科學領域達到男女平等也要到2100年。如果現實一些的話可能需要更久的時間,甚至遙遙無期。而相比之下,預計30年之內就可消除生物醫學論文方面作者的性別差距。
電腦科學論文女性作者比率預測。來源:艾倫研究所
除此之外,不同性別作者之間的合作也低於預期。報告稱,雖然男性和女性都偏好與同性別作者合作,但女性的同性偏好度正在下降,而男性的同性偏好度在增加。
換言之,雖然電腦科學領域女性科學家的絕對數量在上升,近年來跨性別合作論文的案例數量也有所增加,但跨性別合作論文的比例卻在減少。
對此,科技媒體Gizmodo評價道,在性別平等方面,電腦科學領域不僅出現了落後,而且還在向錯誤的方向前進。
《紐約時報》認為,男女作者的巨大差距在一定程度上反映出電腦科學期刊的編輯群體可能存在男性偏見。
在接受採訪時,前華盛頓大學教授、艾倫研究所負責人埃齊奧尼 (Oren Etzioni) 說:“我們希望看到一個積極的結果,因為我們都意識到,(電腦科學論文)女性作者的數量正在增長。但坦率地說,結果令人震驚。”
更重要的是,由於性別不同,科學家們在電腦科學領域的關注焦點和解決問題思路也有所不同。艾倫研究所研究員王(Lucy Lu Wang)表示:“性別差距所構成的問題不僅體現在選擇什麼資料訓練機器上,更體現在想要(使用AI技術)解決什麼問題。”
目前,許多人工智慧技術需要用大量資料訓練而成。電腦科學研究和科技企業存在的性別差距是否會在現實中影響人們的生活,是很多人關心的問題。在人工智慧行業中,這種由開發人員的性別、種族等差異造成的產品偏見被稱為演算法偏見。
例如,《哈佛商業週刊》資料顯示,語音識別正在成為一項迅速擴張的產業,預計在2030年市值將達到800億美元。但研究表明,語音識別在辨識高音調的女性聲音方面存在困難。即使是準確率最高的谷歌語音識別系統,男性聲音辨識準確率也比女性高出13%。
再比如,在微軟測試其一款評估貸款風險的產品時,由於所使用的已被批准的資料多為男性,因此演算法清晰表明,男性可以更好地承擔貸款風險。
紐約大學AI Now Institute的創始人惠特克(Meredith Whittaker)在今年3月的一次峰會上表示,演算法偏見最典型的例子是亞馬遜公司使用人工智慧技術進行招聘。由於計算機模型使用的資料是過去10年亞馬遜收到的簡歷,而大部分申請人為男性。最終演算法由此計算評論認為,男性是更好的求職者。
對此,惠特克表示:“這是對簡歷中‘女性’這個詞的懲罰。如果你上的是一所女子學院,你的簡歷就會被自動吐出來。”她還說:“這不僅表明演算法可以很容易地反映社會的偏見,而且這個結果更暴露了亞馬遜多年的歧視性招聘做法,很明顯亞馬遜缺乏多樣性。”
著名政治哲學家羅爾斯(John Rawls)曾在《正義論》中做過一個思想實驗,目的是推理出如何才能產生最公平的制度和決策機制。羅爾斯認為,人們只有在“無知之幕”下才能脫離社會偏見,進而推匯出公平。所謂“無知之幕”,就是不以個人的性別、家庭、年齡、種族等作為決策的起點,而是最大化的將特定資訊剝離。而目前人工智慧領域彷彿還不能做到這點。
隨著人工智慧技術的發展,人類將在越來越多的領域依賴其做出決策,如評估貸款風險、職場篩選簡歷等。而這項技術是否能夠最大程度脫離社會和歷史性偏見,實現公平將是未來人類最重大的挑戰之一。
本文來自於介面 記者 | 劉芳