拒絕白人與亞洲人同框,Meta影像生成器的「歧視」,被人挖出來了

机器之心發表於2024-04-07
AI 生成工具的偏見何時休?

人工智慧構築的世界中,AI 有時會像人一樣存在著某種偏見或傾向性。比如對於大語言模型而言,由於訓練資料的影響會不可避免地存在性別偏見、種族刻板印象,等等。

當然,這種偏見或傾向性在影像生成工具中同樣存在。今年 2 月,谷歌 Gemini 被曝出拒絕在影像中描繪白人,生成大量違背基本事實(性別、種族、宗教等)的圖片。

圖片

馬斯克也被系統過分矯正了。

近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 影像生成器無法準確生成「亞洲男性和白人妻子」或者「亞洲女性和白人丈夫」這類影像,讓人大跌眼鏡。我們來看看怎麼回事。

圖片

The Verge 嘗試使用了「Asian man and Caucasian friend」(亞洲男性和白人朋友)、「Asian man and white wife」(亞洲男性和白人妻子)和「Asian woman and Caucasian husband」(亞洲女性和白人丈夫)等 prompt,讓 Meta 影像生成器生成對應的影像。

結果發現,Meta 影像生成器在多數情況下無法遵照 prompt 來生成影像,暴露出了它的某種偏見。

圖片

圖源:Mia Sato/The Verge

不僅如此,調整文字 prompt 似乎也沒有多大幫助。

當輸入「Asian man and white woman smiling with a dog」(亞洲男性和白人女性帶著狗微笑)時,Meta 影像生成器給出的都是「兩個亞洲人」的影像。即使將「white」改為「Caucasian」時,結果同樣如此。

圖片

機器之心自測影像。

當輸入「Asian man and Caucasian woman on wedding day」(婚禮上的亞洲男性和白人女性)時,生成的依然是兩個亞洲人。

圖片

婚禮上的亞洲男人和白人女人。圖源:Mia Sato/The Verge

當輸入「Asian man with Caucasian friend」(亞洲男性和白人朋友)或「Asian woman and white friend」(亞洲女性和白人朋友)時, 生成的大多數影像仍是兩個亞洲人形象。

圖片

圖片

自測影像。

當輸入「Asian woman with Black friend」(亞洲女性和黑人朋友)時,Meta 影像生成器仍是兩名亞洲女性。但當將 prompt 調整為「Asian woman with African American friend」(亞洲女性和非裔美國朋友),結果反而準確得多。

圖片

圖片

自測影像。

此外,當指定南亞人時,Meta 影像生成器的結果變化也不太大。當輸入「South Asian man with Caucasian wife」(南亞男性和白人妻子)時,大多數時候是兩個印度人形象。該工具還有刻板印象,在沒有要求的情況下,生成的南亞女性往往會穿戴紗麗。

圖片

圖片

自測影像。

一番測試發現,Meta 影像生成器無法想象亞洲人與白人「同框」,這樣的結果令人震驚。其中,該工具始終將亞洲女性或男性描繪為膚色淺的東亞人,儘管印度已經成為世界上人口最多的國家。在沒有明確提示的情況下,該工具還會新增特定文化服飾。

最後,機器之心使用類似的 prompt 驗證了 The Verge 的結果,對於 prompt「亞洲女性和白人丈夫」,生成的 10 張影像中,只有 3 張影像準確還原。

圖片

圖片

輸入 prompt「asian man and caucasian wife」(亞洲男性和白人妻子),結果更離譜,生成的 8 張影像沒有一張還原。

圖片

圖片

其實,這並不是 Meta 的影像生成工具第一次被曝出問題了。去年 10 月,Meta 的 AI 生成貼紙工具建立了大量不恰當的圖片,比如童兵、持槍和拿刀的米老鼠等暴力、粗魯、裸露形象。

圖片

圖源:arstechnica and meta

此次,Meta 影像生成器再次讓我們警醒 AI 系統建立者、訓練者以及所用資料集可能存在的偏見和刻板印象。

對於 The Verge 發現的這一現象,有網友分析稱,這是 Meta 在訓練的時候沒有餵給模型關於這一場景足夠的示例。

圖片

你覺得呢?

原文連結:https://www.theverge.com/2024/4/3/24120029/instagram-meta-ai-sticker-generator-asian-people-racism

相關文章