近日發表在《Proceedings of the National Academy of Sciences USA》上的一項新研究提供了一個衡量“深度偽造”技術已取得多大進展的標準。研究結果表明,真正的人類很容易被機器生成的面孔所迷惑,甚至將其解釋為比真人更容易獲得信任。

 

研究報告的共同作者、加州大學伯克利分校教授Hany Farid指出:“我們發現,合成臉不僅高度逼真且被認為比真實臉更容易獲得信任。這一結果引起了人們的擔憂,這些面孔在被用於邪惡目的時可能非常有效。”

來自義大利瑞士大學的副教授Piotr Didyk則表示:“我們確實已經進入了危險的深度偽造的世界。”他沒有參與該論文。Didyk認為,儘管建立同樣複雜的視訊更具挑戰性,但其工具可能很快就會被普遍使用。

這項研究的合成面孔則是在兩個神經網路之間的來回互動中形成的,這是一種被稱為生成式對抗網路的例子。其中一個網路被稱為生成器,它產生了一系列不斷髮展的合成面孔;另一個網路被稱為鑑別器,它在真實影像上進行訓練,然後通過跟實際面孔的資料進行比較對生成的輸出進行分級。

生成器以隨機畫素開始練習。隨著鑑別器的反饋,它逐漸產生了越來越逼真的人臉。最終,鑑別器無法分辨出真假人臉。

該網路在代表黑人、東亞、南亞和白人男性和女性面孔的真實影像陣列上進行了訓練,這跟早期研究中更常見的白人男性面孔形成鮮明對比。

在將400張真實面孔跟400張合成面孔相匹配後,研究人員要求315人在128張圖片中分辨出真假。另一組219名參與者在試圖區分臉部時得到了一些關於如何識別假貨的培訓和反饋。最後,第三組223名參與者對128張圖片的可信度進行了評分,評分標準為1(非常不值得信任)至7(非常值得信任)。

第一組在分辨真假人臉方面的表現並不比拋硬幣的結果好,平均準確率為48.2%。第二組未能顯示出戲劇性的改善,只得到了約59%,即使有關於這些參與者的選擇的反饋。對可信度進行評分的小組給合成人臉的平均評分略高,為4.82分,而真人的評分為4.48分。

研究人員並沒有預料到這些結果。“我們最初認為,合成面孔會比真實面孔更不值得信任,”這項研究的論文共同作者Sophie Nightingale說道。

這一發現增加了人們對技術可及性的擔憂,因為幾乎任何人都有可能創造出具有欺騙性的靜態影像。Nightingale說道:“任何人都可以在沒有Photoshop或CGI專業知識的情況下建立合成內容。”南加州大學視覺智慧和多媒體分析實驗室的創始主任Wael Abd-Almageed則稱,另一個擔憂是,這種發現會給人一種印象,即深度造假將變得完全無法檢測。據悉,Almageed沒有參與這項研究。他擔心科學家們可能會放棄開發應對深度偽造的措施。

人權組織WITNESS的專案戰略和創新總監Sam Gregory指出:“在這個研究界沒有發生足夠的對話,那就是如何積極主動地開始改進這些檢測工具。”據悉,該組織部分地專注於區分深度偽造的方法。他表示,製作檢測工具非常重要,因為人們往往會高估自己識別假貨的能力,並且“公眾總是不得不去了解他們被惡意使用的情況。”

沒有參與這項研究的Gregory指出,論文作者們直接解決了這些問題。他們強調了三種可能的解決方案,包括為這些生成的影像建立持久的水印,“比如嵌入指紋,這樣你就可以看到它來自一個生成過程”。

研究人員在強調深度偽造的欺騙性使用將繼續構成威脅之後以一個嚴酷的結論結束–“因此,我們鼓勵那些開發這些技術的人考慮相關的風險是否大於其收益。如果是這樣,那麼我們不鼓勵開發技術,僅僅是因為它是可能的。”

自 cnBeta.COM