深度學習下的人臉識別技術:從“後真相”到“無隱私”

dicksonjyl560101發表於2019-06-18




摘要:  不到三年時間,人臉識別技術飛速進展,假影片會讓真相進一步坍塌,同時,未來社會可能會進入一個無隱私時代。

圖片來源@視覺中國

圖片來源@視覺中國

文|五矩研究社,作者|劫鏢

2018年7月,《大西洋月刊》曾發表過一篇人臉識別的文章,名字叫做《開啟假影片時代》,文章作者富蘭克林·福爾還曾寫過一本書,書名叫做《無思想的世界:高科技的生存威脅》。

這篇文章大體講的是,假新聞的出現將我們帶入一個叫做後真相的時代,不到三年時間,人臉識別技術飛速進展,假影片會讓真相進一步坍塌,同時,未來社會可能會進入一個無隱私時代。

最近一週發生的兩件事,讓人們愈發懷疑,AI,究竟會把人類文明帶向何方。

影片換臉“騙術”升級

Facebook CEO祖克伯在上週被“整”了。

小扎於17年錄製的一段影片,經過AI技術後期加工後,變成了一個新影片被重新上傳到了Instagram上,影片中的所有動作如初,但內容卻與原版大相徑庭。

深度學習下的人臉識別技術:從“後真相”到“無隱私”

在影片中,祖克伯毫無“人味”地說到:“想象一下,有一個人,完全控制著數十億人被盜的資料,他們所有的秘密,他們的生活,他們的未來。我完全歸功於幽靈。幽靈告訴我,誰能掌控資料,誰就能掌控未來。“

慶幸的是,這條几乎以假亂真的影片編輯者來自一家營銷機構,在釋出時就已標註了假影片標籤,才不至於發酵成為社會新聞。

相比在市場公開的技術,上週一隊科研小組公佈的最新研究,讓影片造假的真實度登上了一個新臺階。

研究小組的成員來自史丹佛大學、德國馬克斯普朗克資訊學院、普林斯頓大學和 Adobe 研究院,這份研究報告被提交到了計算機圖形頂會 SIGGRAPH 2019。

深度學習下的人臉識別技術:從“後真相”到“無隱私”

論文中指出,透過深度學習,可以在一段影片中針對某一句話增加、刪掉甚至是修改任意詞句,讓影片中的演講者說出任意想說的話,並且看起來仍然十分自然,就像是演講者自己說出來。

舉例來說,如果今天的黃金報收價格是300元,經過修改的影片能讓你聽起來和看起來都說的是100元。

這項技術的測試報告中, 59.6%的受試者認為造假影片才是真實的影片;20%的受試者反而認為原始未經編輯的影片是假的 ,足以說明加工過的影片騙過了大多數人的眼睛。

據瞭解,該開發者小組下一步有意將這項技術用在即時視訊通話中進一步“完善”技術。

深度學習下的人臉識別技術:從“後真相”到“無隱私”

一週之內兩起假新聞報導,在美國引發了新一輪對基於深度學習下的人臉識別技術的大討論。

硬體GPU和AI神經網路,這兩大要素讓面部識別技術近年來得到極大 發展。不久前,三星利用AI人臉識別技術僅憑照片“復活”了過蒙娜麗莎和夢露,效果不甚理想,數週時間,影片換臉技術便幾乎已經可以做到以假亂真,欺騙大多數人。

對於深度神經網路的研發投入使人臉識別的發展一日千里。摩爾定律下運算能力的指數級增長,又使得造假成本越來越低。

在史丹佛的報告中提到,40分鐘的影片訓練素材就能達到論文中影片展示的最優效果,即便只使用極少量的資料,比如兩分鐘的影片進行訓練,最終合成的人臉誤差率也只有0.021,僅比40分鐘影片(誤差率0.018)高了0.003。

這意味著,僅用一段抖音影片就有可能實現近乎完美的欺騙,從而實現在網路上大範圍傳播。這還意味著,文明社會將從無圖無真相,演化為影片也無法成為真相。

以神經網路和人臉識別技術為基礎,以DeepFake(深度欺騙)為代表的換臉術,讓很多人不禁懷疑,未來網路上是否還能傳播真相?

“變臉”——正義與邪惡對抗

吳宇森曾經拍過一部非常著名的好萊塢電影——《變臉》,特拉沃爾塔與凱奇之間,正義與邪惡的爭鬥,堪比如今AI的兩面性。

《紐約客》雜誌在18年底刊登的文章中,詳細討論了我們是否應該對人臉識別技術保持警惕:

深度學習結合面部識別技術,能夠為治安、醫療和農業等領域帶來革命,同時也有隨時被武器化或濫用的危險。

利好的訊息是,利用AI人們經可以在博物館將達利復活,或者透過電影后期修改演員說錯的臺詞,大幅提升我們在日常工作中的效率或增加娛樂的沉浸感。

特別是在安防方面,面部識別技術進一步演化,會升級為步態分析技術,發現每一個人身體獨特而細微的動作模式,如此即使罪犯刻意偽裝,人工智慧也可以精準識別出來。

不過,也有很多利用AI作惡的例子。去年非常火爆明星換臉“出演”色 情 片一事就在好萊塢引發了軒然大波。

同時,AI技術下的假新聞更容易產生社會或政治影響,今年油管上黑人兄弟對奧巴馬的映象級模仿,觀看量已接近千萬。幾周前,僅僅是兩段關於美國眾議院議長南希·佩洛西的鬼畜影片,也同樣對美國頂級政客帶來了巨大的負面。

深度學習下的人臉識別技術:從“後真相”到“無隱私”

國內媒體品玩對此的看法是:“在當前社會極端化和對抗日益嚴重,以及假新聞盛行的大環境下,類似的影片往往具有極強的傳播勢能。而更先進的技術讓影片的質量變得更好,相應地對受害者的傷害,以及對社會造成的進一步撕裂,只會更加嚴重。”

假的新聞、圖片、影片,僅僅是人臉識別技術在當下社會的深度使用,在《紐約客》文章的最後提出:或許人臉識別技術的進化版,會將我們帶入一個無隱私社會。

“無隱私”時代

前文中提到的步態分析技術便是人臉識別更高階的運用之一,除此之外還有行為分析。

試想一下,如果你的老闆透過辦公室裡的攝像頭,就能提早得知你是否患上重病,從而提前找藉口解除勞動合同。這樣的未來也許真的會發生。

隨著公共場所攝像頭的數量不斷增加,整個社會的影像死角會越來越少,就像電影中描繪的那樣,車載、手機、眼鏡在掃描周圍環境時“無意”採集的資料越多,我們距離無隱私時代就會越近。

用歐盟司法專員的話說,“今天的個人資料,就如同(觀看)人們在水族館裡裸泳一樣。”

於是,資料與隱私的價值正變得尤為凸顯。

正所謂屁股決定腦袋,AI嵌入人類社會的程度越深,越會引發我們對於網際網路、免費、大資料以及隱私保護的思考與警惕。

很多人都知道,類似Facebook和谷歌等大部分網際網路公司的主要收入來自於廣告,更精準的資料意味著廣告商更容易判斷你的購買傾向,選擇恰當的投放策略。

因此,在2018年歐盟頒佈了《通用資料保護條例》和戲稱為“表情包大屠殺法案”的《著作權指令》修改,同時加速推進《數字化單一市場戰略》和《數字版權法》等發案,這些法律都指向了使用者資訊採集的源頭,一旦推出, 未來歐盟國家的使用者資料,要麼是法律禁止採集的,要麼是要向內容提供方付費的。

網際網路內容的免費時代正在走向盡頭的同時,使用者隱私也得到了空前的保障。歐盟的法律覆蓋了5億歐洲人,但產生的漣漪,會波及全世界。《經濟學人》對此的看法是,歐盟的決定,會影響矽谷的未來。

目前國內還處在 “用隱私換便利”的過程,不少使用者對於個人資料和隱私保護的意識尚未建立,遠沒有歐盟那麼看中。但相信每個人中國網民都有過隱私被窺視的經歷,以及無可奈何的失控感。在這點上,歐盟的做法值得借鑑。

《終結者》電影的一句臺詞說,無論支援還是反對,我們都無法避免科技時代的到來。

如果說網際網路後真相時代無可避免,至少別讓我們像《使命召喚》裡形容的那樣:“you are not a human, you are an asset of data.(你不是人,你只是一堆有價值的資料)”


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2647950/,如需轉載,請註明出處,否則將追究法律責任。

相關文章