本文由 「AI前線」原創,原文連結:宅男福音deepfakes開源了
策劃編輯|Tina
作者| MMA GREY ELLIS
編譯 | Debra,Vincent
編輯|Emily
AI 前線導讀:”網際網路往往會產生一些不好的副產品,比如把 Facebook 推上風口浪尖的假新聞,以及最近很火的 AI 虛假色情視訊。有人用機器學習 AI 技術把明星的臉部與色情視訊表演者的臉部進行交換,幾乎可以達到以假亂真的效果,比如演員 Daisy Ridley、 Gal Gadot、Scarlett Johansson 和 Taylor Swift 等都是這種技術的早期受害者。現在,竟然又有人做成了 app,GitHub 上也已經被開源。這大大降低了這項技術的門檻,無疑會讓這些虛假的視訊傳播更加廣泛。然而,當普通人的臉部影像被用於虛假色情視訊時,法律並不能向受害者伸出援手,這是為什麼呢?”
GitHub 開源工具 deepfakes
想必你還記得“神奇女俠”蓋爾·加朵的臉被貼在了一個愛情動作電影女主的臉上,令無數宅男神往的女神就這麼“脫了”,當時新聞一出在網路上引起了不小的轟動。據瞭解,這家電影公司採用的就是這個名為 deepfake 的深度學習技術,這款工具本來的用途是用來識別和交換圖片、視訊中人物臉部影像的工具 (靈感源自 Reddit 上超級火爆的不可描述社群 deepfakes),但是就有這麼一群不安分的人,非要把一項本該得到很好利用的技術用在某些迷之領域,╮(╯▽╰)╭為了拍片兒、看片兒煞費苦心,也真是難為他們了。
雖然之前有一些 app 能製作這樣的視訊,但是現在程式設計師也可以在家研究一下程式碼,自己動手,豐衣足食,獲得更加“完美”的體驗了(此處打馬賽克)。具體該怎麼操作呢?以下是一份動手指南:
概覽
該專案有多個入口,你需要做的事:
- 收集照片(或使用以下訓練資料中提供的照片)
- 從原始照片中提取面部影像
- 在照片上訓練模型(或使用以下訓練資料中提供的模型)
- 使用模型轉換原始碼
提取
執行您資料夾中的 python faceswap.py extract。這一步將把影像從 src 檔案放到提取資料夾中。
訓練
執行您安裝檔案中的 python faceswap.py 訓練。這一步訓練模型將兩組照片儲存到模型資料夾內。
轉換
執行您檔案中的 python faceswap.py 轉換。這一步將把原始資料夾中的照片應用到修改後的資料夾中。
一般注意事項:
所有提到的指令碼都帶有 -h / - 幫助選項,以及可以接收的庫。你很聰明,可以弄清楚它的工作原理,對嗎?注意:現在視訊還沒有開始轉換。您可以使用 MJPG 將視訊轉換為照片,處理影像並將影像轉換回視訊。
訓練資料
這是整個程式包,包含訓練影像和已經過訓練的模型(〜300MB):
如何建立和執行此程式
建立
fork 設定庫,設定自己的環境,然後用 Dockerfile 啟動。或者你可以 Dockerfiles 中的依賴關係手動進行設定。可檢視
../blob/master/INSTALL.md 和../blob/master/USAGE.md
瞭解如何配置 virtualenv 和執行該程式的基本資訊。
為了達到最佳效能,您還需要一個具有 CUDA 支援的現代 GPU。
注意:
- 重新使用現有的模型比從零開始訓練快得多。
- 如果沒有足夠的訓練資料,請從長得相似的人的影像開始,然後再轉換資料。
Docker
如果您更喜歡使用 Docker,則可以使用以下方法啟動程式:
建立:docker build -t deepfakes 。
執行:
docker run --rm --name deepfakes -v [src_folder]:/ srv -it deepfakes bash。bash
可以用命令列替換。請注意,Dockerfile 並不能滿足所有的需求,所以它可能導致在一些 python 3 命令失敗。另外請注意,它沒有 GUI 輸出,所以 train.py 可能會發生顯示影像失敗的情況。您可以對此進行註釋,或將其另存為檔案。
如何作貢獻
對生成模型感興趣的人
歡迎到“faceswap-model”來討論 / 建議 / 提交當前演算法的替代方案。
開發者
- 完整閱讀本 README
- fork 庫
- 通過下面的連結下載資料
- 玩一玩
- 查閱帶有'dev'標籤的話題
- 對於對計算機視覺和 openCV 更感興趣的開發人員,請移步帶有“opencv”標籤的話題。,也可以隨時新增自己的替代方案 / 改進
非開發高階使用者
- 完整閱讀本 README
- fork 庫
- 通過下面的連結下載資料
- 嘗試玩一玩
- 檢視帶有'advuser'標籤的話題
- 移步'facewap-playground',看看能不能幫到其他人
終端使用者
- 來這裡獲取程式碼,想玩就自己動手
- 你也可以去“facewap-playground”,幫助別人或者從別人那裡獲得幫助。
- 耐心一點。這對於開發人員來說也是相對較新的技術。
- 注意所有與執行程式碼相關的問題都必須在“faceswap-playground”專案中公開!
反對者
- 對不起,沒時間理你
這是一個什麼樣的資料庫?
這是一個為活躍使用者開放的資料庫。
為什麼是這個庫?
joshua-wu 庫似乎不太活躍。像網址前缺少 http:// 這個問題到現在都沒解決。
為什麼叫做“deepfakes”,而不是 /u/deepfakes?
- 因為隨著專案數目的增長,這個問題遲早會出現。
- 因為所有的榮耀都會歸於 /u/ deepfakes
- 因為它會讓貢獻者和使用者更團結
關於機器學習
計算機如何識別 / 塑造一張臉?機器學習工作原理是什麼?什麼是神經網路?
這個問題的答案很複雜。以下視訊可以幫你更好地理解機器學習:
法律幫不了假視訊受害者?
有人會問,這樣使用別人的影像做這種視訊和影像不會被人告嗎?然而事實上,法律可能還真制裁不了這種行為。這是為什麼呢?
據邁阿密大學法學院教授 Mary Anne Franks 說,她之前所做的推動性犯罪定性的工作可能幫不了 AI 色情視訊的受害者。Franks 制定了美國現有的大部分關於將非自願色情定為刑事犯罪的法律。
Franks 和立法者並不是沒有考慮到對其他人的影像進行操作的不合理之處,而是目前所有立法的前提是非自願色情內容侵犯了受害者的隱私。但用 AI 技術進行的面部影像交換並不構成侵犯隱私,因為不同於裸體照片等,這些視訊素材本身就是假的。你不能因為有人曝光了本不是你生活中的私密就起訴某人。
而且,這些視訊的創作者很狡猾,他們會用到一些處理技巧以逃避法律的追究。
這樣看起來好像法律無法向受害者伸出援手,那就沒有解決的辦法了嗎?答案是否定的。比如名人明星可以非法使用肖像權獲得商業利益的途徑提起訴訟。但對於普通人來說,最好還是通過名譽損毀法。當 Franks 意識到懲罰色情的法律不包括關於虛假影像的條文時,她建議立法者修改名譽損毀法來解決這個問題,但目前還沒有取得太大的進展。
從長期來看,解決這個問題最可行的方法是從技術這個突破口開始,即應用程式。美國的《聯邦貿易委員會法》禁止“商業活動中,或對商業活動產生影響的不正當或欺騙性行為”。“如果我們能夠在這點上動一點心思,應用程式開發者恐怕就得擔點責任了。這個應用程式正在將某個人的資料轉換為其他人的資料。“(Google 曾在 2013 年違反了相同的規定。)
另外,企業組織也可以貢獻一些力量,比如谷歌曾表示其將會把非自願色情搜尋結果與受害者的名字隔離。
同樣地,線上平臺也可以加大打擊力度,至少可以將假視訊打上虛假的標籤。另外,“用 AI 來檢測這些經過編輯處理的色情視訊也是小事一樁,”馬里蘭大學電腦科學家 Jen Golbeck 表示。
由此看來,驗證視訊的真實性(或缺乏視訊)只會隨著這項技術的普及而變得更加重要。
反響
這篇文章在 reddit 上也引起了網友的熱烈討論,很多人關注的是此技術引起的道德和法律方面的問題,但也有不少人相信這項技術背後潛在價值,希望這門技術不會被負面的訊息影響。以下是選取的一部分網友的留言,從中可以大概反映出兩個對立的觀點:
網友 1: 色情門只是表面問題。這項具有開創性的技術正處於獲得突破的邊緣,它的發展速度將會比我們想象的快得多,請多想想未來的可能性和它將帶來的成果吧。謝謝您嘞。
回覆:以後一個人就可以演一部戲,明星們可以不演戲了,他們可以讓 Joe schmoe 來演,然後把明星的臉貼上去就行了。
網友 2: 您覺得會有啥突破呢?
回覆 1:就像假新聞可以傳播偽造的錄音一樣,想象一下假視訊裡希拉蕊開玩笑說從投資銀行拿了賄賂,或者普京承認她的郵件是他偷的。這很難證明是真是假啊。
回覆 2: 對的,換臉演算法真的很有趣,我認為和最初的圖片轉換技術一樣,人們以後會開發出更多追蹤此類資訊的技術。
網友 3: 未來幾年,法庭上所有的視訊和音訊資料都將變得不可信。至少在人們的心裡會永遠對事情的真相存疑。
網友 4;我認為這是未來 AI 會如何影響我們生活的一個很好的例子。也許未來 AI 的角色並不是終結者那樣的機器人,而是技術的突破會對人類道德和社會結構產生深刻的影響。
網友 5: 我看你們很多人關注的是道德和法律方面的影響,難道只有我一個人覺得很酷嗎?這項技術真是太棒了,無縫的修改技術簡直完美,這才是最重要的不是嗎?
原文連結:
更多幹貨內容,可關注AI前線,ID:ai-front,後臺回覆「AI」、「TF」、「大資料」可獲得《AI前線》系列PDF迷你書和技能圖譜。