知物由學 | 虛假色情氾濫,人工智慧可以做些啥?

網易易盾發表於2018-04-18

“知物由學”是網易雲易盾打造的一個品牌欄目,詞語出自漢·王充《論衡·實知》。人,能力有高下之分,學習才知道事物的道理,而後才有智慧,不去求問就不會知道。“知物由學”希望通過一篇篇技術乾貨、趨勢解讀、人物思考和沉澱給你帶來收穫的同時,也希望開啟你的眼界,成就不一樣的你。當然,如果你有不錯的認知或分享,也歡迎通過郵件(zhangyong02@corp.netease.com)投稿。

本文作者:Louise Matsakis,《連線》雜誌編輯,負責網路安全、網際網路法律和網路文化,曾在VICE的科技網站主機板和Mashable擔任編輯。

知物由學 | 虛假色情氾濫,人工智慧可以做些啥?

Gfycat——一個動態圖片託管平臺,致力於讓視訊或動態圖片的上傳和分享更加快速便捷。

作為一個線上動態圖片託管平臺,公司成立的目的就是要改善21世紀人們對GIF的觀看體驗。GYF是“GIFFormatYoker”(GIF格式關聯)的縮寫,這一縮寫很好地體現了公司成立的目的,即要把GIF和HTML5視訊關聯起來。

人臉識別和機器學習的使用已經越來越普遍了,網際網路也開始利用這些技術來製作虛假的色情視訊。正如Motherboard報導的那樣,人們正在製作智慧面部交換色情片,將名人的臉換到色情片的女演員上,例如偽造國外明星蓋爾·加朵(GalGadot)與她同父異母的哥哥睡在一起的視訊。當Reddit、Pornhub和其他社群都在為禁止了deepfakes的內容傷腦時,GIF-hosting公司的Gfycat找到了一個不錯的解決方法。

Gfycat表示他們已經找到一種通過人工智慧來識別虛假視訊的方法。Gfycat已經開始利用這項技術來對其平臺的GIF進行稽核。這項新技術向人們展示了在未來如何嘗試與虛假視訊內容對抗。毫無爭議的是,隨著越來越多類似Snapchat的平臺將視訊內容引入新聞行業,與虛假視訊內容的鬥爭會越來越激烈。

Gfycat至少擁有兩億活躍使用者,它希望能提供一種比Reddit、 Pornhub和Discord更全面的方法來過濾deepfake。Mashable報導稱Pornhub未能從其網站上刪除一些deepfake視訊,包括一些有數百萬點選量的視訊(這些視訊後來在文章釋出後被刪除)。三月初,Reddit網站禁止了一些deepfake社群,但保留了一些相關的板塊,如r/DeepFakesRequests 和r/deepfaux,直到WIRED在報導這個故事的過程中引起他們的注意。

這些努力不該被忽視,但同時,它們也顯示了網際網路平臺的人工運營是有多麼困難——特別是當電腦不需要人工,能發現自己的deepfake的時候。

人工智慧開始戰鬥

Gfycat利用人工智慧開發了兩種工具,它們都以貓科動物命名:Angora專案和Maru專案。當使用者將泰勒•斯威夫特(Taylor Swift)的低質量GIF上傳到Gfycat時,Angora專案可以在網上搜尋更高解析度的版本以替換它。換句話說,它可以找到斯威夫特同樣的演唱剪輯“"ShakeIt Off”,並將這個更好的版本上傳。

現在讓我們假設你沒有標記你的剪輯為泰勒•斯威夫特,但這不是一個問題。據稱Maru工程可以區分不同的人臉,並會自動用斯威夫特的名字標記GIF。這從Gfycat的角度來看是有意義的,它希望將每月上傳到平臺的數百萬使用者的素材編入索引。

業餘愛好者創作的大多數deepfake都不完全可信。因為如果你仔細看,這些幀並不太匹配;在下面這段視訊剪輯中(https://youtu.be/5hZOcmqWKzY ,PS:需翻牆),唐納德·川普(DonaldTrump)的臉並沒有完全覆蓋安格拉•默克爾(Angela Merkel)的臉。但是你的大腦做了一些處理,填補了技術無法將一個人的臉變成另一個人的臉的空白。

Maru專案遠不如人腦寬容。當Gfycat的工程師通過它的人工智慧工具執行deepfake時,它會註冊類似於尼古拉斯凱奇(Nicolas Cage),但不足以發出一個肯定的匹配,因為人臉並不是在每一幀中都呈現得完美無缺。使用Maru是Gfycat發現deepfake的一種方法,當GIF僅部分像名人時,它可能就不會特別好使。

Maru專案可能無法單獨阻止所有的deepfake,且隨著它們變得更復雜,未來也會更加的麻煩。有時,一個deepfake的特徵不是名人的臉,而是一個平民,甚至是創作者僅個人認識的人。為了對抗這種變化,Gfycat開發了一種類似於Angora專案的遮蔽技術。

如果Gfycat懷疑某個視訊已經被修改以顯示其他人的臉,比如Maru沒有肯定地說這是泰勒•斯威夫特的,那麼公司就可以“遮蔽”受害者的臉,然後搜尋是否在其他地方存在身體和背景錄影。例如,在川普(Trump)的身體上放置他人面孔的視訊中,人工智慧可以搜尋網際網路,並開啟它借用的原始的國情諮文的視訊錄影。如果在新的GIF和原始檔之間不匹配,人工智慧可以斷定視訊已經被修改了。

Gfycat計劃使用它的遮蔽技術來遮蔽更多的人臉,以檢測不同型別的虛假內容,比如欺詐天氣或科學視訊。Gfycat一直非常依賴人工智慧來分類、管理和調節內容。Gfycat執行長理查德·拉巴特(Richard Rabbat)在一份宣告中說,“人工智慧的創新步伐加快,有可能極大地改變我們的世界,我們將繼續使我們的技術適應這些新的發展。”

不是萬無一失

Gfycat的技術在至少在一個feedfake的工作場景中是行不通的:一個在其他地方不存在的臉和身體。例如,兩個人在一起拍性愛錄影,然後換到別人的臉上。如果沒有人蔘與其中,而且視訊在其他地方沒有,那麼Maru或Angora就不可能知道內容是否被改變了。

目前看來,這是一個相當不可能的情況,因為製作一個deepfake需要訪問一個視訊和某人的照片。但也不難想象有這樣的一個情況,一個前戀人會利用手機上的視訊來拍攝受害者,而這些視訊從未公開過。

即使是以色情明星或名人為特徵的feedfake,有時候人工智慧也不確定到底發生了什麼,這就是為什麼Gfycat僱傭人來幫忙的原因。該公司還使用其他後設資料,如共享位置或上傳者來確定剪輯是否是一個feedfake。

此外,並非所有的視訊都是惡意的。正如電子前沿基金會(Electronicforrention Foundation)在一篇部落格文章中指出的那樣,上述默克爾/川普混搭(Merkel/Trump)之類的例子僅僅是政治評論或諷刺。還有其他合法的理由來使用這種技術,比如匿名化需要身份保護的人,或者建立經雙方同意改變的色情作品。

儘管如此,還是很容易看出為什麼這麼多人會覺得deepfake令人苦惱。它們代表著一個未來的開端,即不可能判斷一個視訊是真實的還是假的,這可能對宣傳及更多的內容產生廣泛的影響。俄羅斯在2016年總統選舉期間用假機器人淹沒了Twitter;在2020年的選舉中,可能會對候選人自己的造假視訊做同樣的事情。

漫長的戰鬥

雖然Gfycat提供了一種潛在的解決方案,但它可能只是一個時間問題,直到deepfake的創造者學會如何規避它的安全保障。隨之而來的鬥爭可能需要數年時間才能完成。

正如達特茅斯學院(Dartmouth College)的電腦科學教授、專門從事數字取證、影像分析和人類感知的HanyFarid說的:“我們幾十年的時間裡,你可以在色情網站或Reddit上找到你可以釋放的法醫技術,並最終從一個虛假的資訊中分辨出真實的資訊。”如果你真想愚弄這個系統,你就會開始建立起一套破解法醫系統的方法。

相關閱讀:

知物由學第七期 | 未來安全隱患:AI的軟肋——故意欺騙神經網路

知物由學第八期 | 你的網路安全問題背後的真正原因

知物由學第九期 | 基於DNN的人臉識別中的反欺騙機制

如果你受困於色情、渉政等虛假資訊,那麼你可以嘗試用下易盾的反垃圾業務,可點選“ 閱讀原文 ”一鍵接入易盾內容安全解決方案。

相關文章