推出不到一個月,谷歌Gemini翻車了

机器之能發表於2024-02-23

機器之能報導

編輯:Sia

谷歌下架 Gemini 人物影像生成服務。

三月前,谷歌 Gemini 轟轟烈烈亮相,被描述為谷歌“最大、最有能力和最通用”的 AI 系統,並補充說它具有複雜的推理和編碼能力。

2 月 8 日,谷歌聊天機器人 Bard 正式更名為 Gemini,以反映新聊天機器人的“使命”——提供對“最有能力的模型系列”的訪問。結果,推出不到一個月,Gemini 就捅了個大簍子。

使用者使用人像生成服務時發現,讓 Gemini 承認白人的存好像非常困難,AI 拒絕在影像中描繪白人,以至於生成不少違背基本事實(性別、種族、宗教等)的圖片。

這些圖片像病毒一樣在社交媒體上傳播開,馬斯克的關注進一步擴大了事件影響。他措辭嚴厲表示,谷歌在文生圖上“玩過頭了”。

圖片


圖片

本週早些時候,不對勁的圖片被陸續曝光。在一個令人震驚的例子中,針對“生成 1943 年德國士兵的影像”的提示,Gemini 生成的人像包括一名穿著軍裝的亞洲女性和一名黑人男性。

圖片

Verge 科技記者 Adi Robertson 的同事嘗試相同提示,得到了類似結果:

圖片

這可能是谷歌對 AI 中長期存在的種族偏見問題過度糾正的結果,真的很糟糕。

圖片

除了二戰德國士兵,X 的網友們(@EndWokeness )提供了一些 Gemini 生成維京人、教皇甚至美國開國元勳的圖片樣本。我們可以看到有一名身著教皇服裝的亞洲女性,但歷史上所有教皇都是男性擔任的。

圖片

影像中的一名黑人似乎代表喬治·華盛頓,戴著白色假髮,身穿大陸軍制服。

圖片

科技記者 Adi Robertson 也嘗試讓 Gemini “生成開國元勳形象”。系統返回的圖片中,幾乎全是白人,與托馬斯·傑斐遜等真實人物有些相似。

圖片

但是,記者又發現,針對“ 1800 年代的美國參議員”的提示,返回的結果又過度“多元化”了。要知道 1922 年美國才出現第一位女參議員,而且是一位白人女性。

圖片

這是 Gemini 生成的 “ 在吃西瓜的 17 世紀英國國王”:

圖片

就連馬斯克也被系統過分矯正了:

圖片

這是另一個戲劇性用例。使用者提示系統生成一張美國最高法院大法官 Clarence Thomas 的圖片(他是美國最高法院繼瑟古德·馬歇爾後的第二位非裔美國人大法官),系統卻“一反常態”,生成了一張白人男性的影像:

圖片

維基百科上,這位大法官的照片是這樣的:

圖片

很多人看到這一結果的反應,大概和馬斯克一樣:

圖片

數千名使用者注意到讓谷歌 Gemini 承認白人的存好像非常困難。這是另一個雙標現場,生成微笑的白人女性,不行;生成微笑的黑人女性?沒問題:

圖片


過去幾天引發爭議的另一個熱點提示,“生成一張美國女性的照片”。從結果上看,難怪使用者抱怨 Gemini 在生成女性和有色人種的影像方面矯枉過正了。


圖片


為了避免偏見、刻板印象和將大量女性和有色人群排除在外,Gemini 試圖反映出多樣性的初衷是好的,但他們顯然走得太遠。
風險投資家 Michael Jackson 在 LinkedIn 上的一篇文章中寫道,“儘管谷歌在 Gemini 上花費了數百萬美元,但只是設法將其 AI 變成了對 DEI 的荒謬戲仿。”(DEI 代表“多樣性、公平性和包容性”。)
圖片

除了人像生成,網友發現 Gemini 在生成其他主題上也存在一些問題。比如,明明要的是棉花糖人,怎麼生成的是巧克力人?

圖片



關於那不勒斯冰淇淋:


圖片


維基百科裡的那不勒斯冰淇淋是這樣的:


圖片


隨著事件不斷髮酵,谷歌今天宣佈暫時停止 Gemini 生成人物影像的服務,誓言要修復所謂的“某些歷史描述中的不準確之處”。
“我們已經在努力解決 Gemini 影像生成功能最近出現的問題,”谷歌在週四釋出給 X 的一份宣告中表示。“這樣做的同時,我們將暫停人物影像的生成,並將很快重新發布改進的版本。”
不過,官方宣告並沒有引用它認為有錯誤的具體圖片。


圖片


同時,谷歌 Gemini 產品高階總監 Jack Krawczyk 也慘遭人肉,過去言論被挖並因此遭受言論攻擊。


圖片

目前他已將 X 帳戶設定為私人帳戶,並從簡介中刪除了任何提及谷歌或他在該公司角色的資訊。

圖片


前谷歌 AI 倫理聯合主管、AI 初創公司 Hugging Face 首席倫理科學家 Margaret Mitchell 表示,Gemini 的例子可能是由幾種干預造成的。

Mitchell 說,谷歌可能已經在“幕後”的使用者提示中新增了種族多樣性的術語。在這種情況下,像“廚師肖像”這樣的提示可能會變成“土著廚師肖像”。這個方案中,可以隨機選擇附加的術語,提示也可以附加多個術語。

谷歌也可能會優先顯示基於深色膚色的生成影像。例如,如果 Gemini 為每個提示生成 10 張圖片,谷歌就會讓系統分析圖片中人物膚色,並將膚色較深的人的圖片推到前面。因此,如果 Gemini 只顯示前 4 張圖片,那麼,膚色較深的人最有可能被看到,她說。

Mitchell 補充說,這兩種方案都是針對訓練後的 AI 系統做出的改變,以緩和偏見問題。她認為,我們應該把重點放在資料上,而不是這些事後解決方案,從一開始就妥善管理資料。

到目前為止,科技公司減輕系統偏見的進展始終有限,很大程度上是因為 AI 影像工具通常是根據從網際網路上抓取的資料進行訓練的。這些網路抓取的內容主要受限於美國和歐洲視角。

“他們已經接受了來自網路上的大量歧視性、種族主義影像和內容的訓練,所以你不能讓生成式 AI 能做你想做的一切也就不足為奇了,”加州大學洛杉磯分校批判性網際網路調查中心的聯合創始人兼聯合主任、《壓迫演算法》一書的作者 Safiya Umoja Noble 說。

《華盛頓郵報》最近的一項調查發現,開源人工智慧工具 Stable Diffusion XL 比其前身有所改進,但仍然與現實世界存在差距。例如,只顯示非白人和主要是深色皮膚的人接受社會服務的影像,儘管人口普查局一項調查提供的最新資料表明, 63% 的食品券領取者是白人,27% 是黑人。

現在,當使用者要求 Gemini 建立人物影像時,聊天機器人的回應是,“我們正在努力提高 Gemini 生成人物影像的能力”,並補充說,當該功能迴歸時會通知使用者。

圖片


參考連結

https://www.ft.com/content/979fe974-2902-4d78-8243-a0cff68e630a

https://www.theverge.com/2024/2/21/24079371/google-ai-gemini-generative-inaccurate-historical

https://www.washingtonpost.com/technology/2024/02/22/google-gemini-ai-image-generation-pause/

相關文章