深度造假的現狀:呼籲加強監管、全面的人工智慧教育和技術干預

Zoho卓豪發表於2023-11-27


正如眾議院情報委員會  Adam Schiff 最近在國會聽證會上宣稱的那樣,“人工智慧和機器學習的進步導致了先進的、經過篡改的媒體型別的出現,即所謂的‘深度偽造’,使惡意行為者能夠煽動混亂,分裂或危機。他們有能力破壞整個競選活動,包括總統競選活動。”據 報導  ,已經發生了多起犯罪分子利用 Deepfake 音訊 

儘管 Deepfake 技術確實存在潛在危害,但它只是現有技術(例如 Adobe Photoshop 和影片編輯軟體)的版本。每一項新技術都會帶來許多批評者,他們強調其潛在影響。重要的是要記住,技術本身是不可知的。它可以用來幫助或傷害。布法羅大學人工智慧研究所所長戴維·杜爾曼 (David Doermann) 表示:“底層技術並沒有什麼根本性的錯誤或邪惡;它只是一種行為。”與基本影像和桌面編輯器一樣,深度偽造只是一種工具。生成網路的積極方面遠多於消極方面。”也就是說,深度偽造音訊和影片確實引起了人們的擔憂,尤其是當它們與社交媒體平臺結合使用時。

 

當深度偽造影片在社交媒體上共享時,檔案會被縮小和壓縮,從而使破譯檔案的真實性變得更加困難。當合成媒體像野火一樣蔓延時,歸屬和痕跡證據被摧毀。這可能會產生嚴重的副作用。考慮到深度造假影片在 IPO 前一天晚上瘋傳的可能性,波士頓大學法學教授 Danielle Citron 感嘆道:“市場的反應速度遠遠快於我們揭穿它的速度。”此外,深度造假媒體的泛濫將導致 Citron 所說的“說謊者紅利”,即人們將開始懷疑內容是否真實,從而使說謊者能夠宣揚他們實際上說過但沒有說過的話。為了解決這種信任衰退問題,Citron 表示,“我們已經在最高層的講壇上看到了‘騙子紅利’的實際發生。所以,我認為我們遇到了一個真正的問題。” 


軟體公司正在引領這場戰鬥
2019 年 12 月,Facebook 與微軟、人工智慧合作伙伴組織以及一組學者發起了“Deepfake 檢測挑戰賽”,為幫助開發 Deepfake 檢測軟體的貢獻者提供 1000 萬美元的獎金。這場競賽將於 2020 年結束。還有一些軟體公司也專注於媒體操縱檢測,包括阿姆斯特丹的 Deeptrace Labs、巴爾的摩的 ZeroFox、聖地亞哥的 TruePic,當然還有國防部的國防研究計劃局 ( DARPA)的 MediFor(媒體取證)團隊也在該領域保持警惕。


企業可以保護自己免受深度偽造音訊和影片的迫在眉睫的威脅
解決方案的一部分將是提供全面的人工智慧教育。儘管立法者可能要求搜尋引擎和社交媒體公司識別並在合成媒體上提供水印,但我們也需要對我們自己的員工進行深度造假技術的教育。尤其是 Deepfake 音訊正變得越來越多。因此,員工必須警惕任何聽起來不太對勁的電話。這些電話可能是社會工程嘗試。就深度偽造影片而言,可以透過面部區域周圍的模糊程度和膚色變化來識別它們。另外,還要注意是否有不自然的動作和光線。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70035060/viewspace-2997368/,如需轉載,請註明出處,否則將追究法律責任。

相關文章