騰訊Blade Team研究入選AI頂會,Deepfake能力或比想象中更強大

Editor發表於2021-04-02

計算機視覺領域世界三大頂會之一的CVPR 2021論文接收結果於近日出爐,接收率約為27.3%,競爭十分激烈,騰訊安全研究團隊Blade Team以其在AI安全領域的突破性發現成功入選。
 
此次騰訊Blade Team被收錄的論文題為《MagDR:Mask-guided Detection and Reconstruction for Defending Deepfakes》,首次公開了一種能夠消除對抗樣本對Deepfake的干擾攻擊的方法,該方法為防止深度偽造能力的濫用提出了創新思考。同時,該發現也能用於提升AI影像處理的安全性。
論文連結:https://arxiv.org/abs/2103.14211
 
Tencent Blade Team由騰訊安全平臺部成立,專注於人工智慧、移動網際網路、物聯網、雲虛擬化等前沿技術領域的前瞻安全技術研究,目前已向Apple、Amazon、Google、Microsoft、Adobe等諸多國際知名公司報告並協助修復了200多個安全漏洞。
 
近年來,“AI變臉”特效風靡全球,近期爆紅的“螞蟻呀嘿”再次掀起體驗和討論的熱潮,這種源自人工智慧生成對抗網路的新技術,能夠利用深度學習技術識別並交換圖片或視訊中的原始人像,不僅製作過程簡單,而且逼真度驚人,幾乎能達到以假亂真的效果。
 
Deepfake作為一項技術工具,有廣泛的應用空間。語音合成能讓計算機用人類的聲音說出上百種語言,視訊合成能讓《速度與激情》裡的Paul Walker復生,但若被濫用,也將帶來巨大的風險,對身份識別和社會信任帶來挑戰。
 
那麼,既然能用技術“造假”,能否用更強有力的技術去對抗?此前行業有研究顯示,在源影像中加入人眼無法感知的對抗攻擊,就能夠通過對抗噪聲來干擾Deepfake影像的生成結果,也就是說,通過在原圖中加入人眼看不到的噪聲,換臉模型就無法生成正確人臉了。
 
但這一對抗手段近期被證明仍有風險。騰訊Blade Team提出了一個全新的MagDR(mask-guided detection and reconstruction)的二階段框架。其核心思想在於使用一些非監督性指標,對對抗樣本在Deepfake中所生成的結果進行敏感性的評估,並且利用人臉屬性區域作為輔助資訊以及通過對最優的防禦方法進行搜尋組合的方式對圖片進行檢測和重建,以期望能夠達到淨化原圖並保持Deepfake輸出真實性的目的。


騰訊Blade Team研究入選AI頂會,Deepfake能力或比想象中更強大

 
論文顯示,騰訊安全研究員選取了Deepfake中較為重要的三個任務進行攻防實驗,分別為換臉、人臉屬性修改以及表情變換。給原圖增加噪聲後,所產生的對抗樣本儘管對原圖進行了修改,但修改的程度明顯低於人眼可察覺的水平,而Deepfake模型產生的深度偽造視訊卻已經崩壞,無法以假亂真,其對Deepfake帶來影響是災難性的。
 
但當改為通過MagDR框架進行處理時,情況發生了變化。該模型首先對視訊中的對抗攻擊擾動進行檢測,提醒Deepfake的使用者,所用的圖片或視訊是大概率存在對抗攻擊的情況的,然後通過重建視訊模型,能夠有效地將攻擊者注入的對抗擾動進行消除,從而實現了Deepfake模型相關係統的正常使用。
 

騰訊Blade Team研究入選AI頂會,Deepfake能力或比想象中更強大

 
MagDR框架不僅能夠消除對抗擾動帶來的破壞性影響,同時還保留了原圖的各種畫素細節,進而保證了重建後的Deepfake結果與原圖結果一致。
 
這一發現表明,原先業界主流的主動性防禦的方法(Deepfake對抗擾動)不再可靠,為了避免社交網路上人臉照片被惡意使用,還需要找到更佳的Deepfake防禦方案。
 
同時,騰訊Blade Team研究員也在此發現的基礎上提出了安全建議,比如可以生成特定的對抗擾動,使得產生出的崩壞效果受到限制,更加真實以繞過目前MagDR的檢測,或者說產生更難以被重建模組消除的魯棒性對抗擾動。
 
研究員同時提出,希望大家可以對MagDR的元件或者整體結構進行調整與創新,以其作為新思路的創新點,產生出更為強大的防禦框架,從而防止Deepfake的惡意濫用,進一步地加強用照片或視訊的安全性。技術在不斷進步,只有“用AI對抗AI”,才能讓技術的安全應用走得更遠。


相關文章