據外媒報導,現在一項新的技術可以讓你新增、刪除或編輯視訊裡說話者所說的文字,而這一切就像在文書處理器上編輯文字那麼簡單。獲悉,一種新的深度偽造(deepfake)演算法可以將音訊和視訊處理成一個新檔案。
由來自史丹佛大學、馬克斯普朗克資訊學研究所、普林斯頓大學以及Adobe研究所的研究人員組成的研究團隊開發了這樣一套演算法。
為了學習說話者的面部動作,該演算法大概需要40分鐘接受訓練視訊和說話者文字記錄,所以如果想要得到好的結果就不能只用一個簡短的視訊。40分鐘可以讓演算法能夠精確地計算出受試者為原始指令碼中的每個語音音節做出的臉型。
在此基礎上,當人們編輯指令碼,演算法就可以建立人臉的3D模型並生成所需的新形狀。一種叫做神經渲染(Neural Rendering)的機器學習技術可以用真實感紋理繪製出3D模型,使其看起來與真實物體基本沒有區別。
不過研究團隊也意識到了該演算法在不道德領域的使用潛力。雖然世界上還沒有發生一起深度造假醜聞,但不難想象,在沒有受過教育的觀眾面前,深度造假是一種極其有效的欺騙工具。更令人擔憂的是,它們的存在會讓不誠實的公眾人物否認或質疑真實但可能影響到他們個人形象的視訊。
對此,研究團隊提出了一個解決方案,即任何使用該軟體的人都可以選擇性地加上水印並提供完整的編輯檔案,但這顯然不是阻止濫用的最有效辦法。
另外,該團隊還建議其他研究人員開發出更好的取證技術來以確定某一視訊是否被別有用心的人改過。事實上,區塊鏈式的永久記錄在這裡有著一些潛力,它將允許任何一段視訊可以回到其原始狀態來進行比較。但這樣的技術還沒到位也不清楚如何在全球範圍內推行。
在非指紋識別方面,許多深度學習應用已經在研究如何識別贗品等問題。通過生成對抗性網路的方法,兩個網路相互競爭--一個生成一個假冒產品,另一個試圖從真品中挑出假貨。經過不斷的學習,識別網路在識別贗品方面開始做得越來越好,而伴隨越做越好,生成贗品的網路就也就必須變得越好,才能達到欺騙的目的。
因此,這些系統在自動識別假視訊方面做得越好,假視訊也就會變得越好。所以很顯然,識別偽造視訊是一個複雜而嚴重的問題,在未來幾十年裡,它幾乎肯定會對新聞報導產生重大影響。
來源:cnBeta.COM