從deepfakes被禁止,看TensorFlow的泛濫應用

AI前線發表於2019-03-03

本文由 「AI前線」原創,原文連結:從deepfakes被禁止,看TensorFlow的泛濫應用
作者|Dave Gershgorn
譯者|Debra
編輯|Emily

AI 前線導讀:”由世界各地的點對點計算機節點支撐的區塊鏈技術日趨火熱。隨著區塊鏈技術在娛樂產業的應用,它能夠通過用點對點網路取代集權的娛樂產業守門人來打破作品創作發行的壟斷,從根本上顛覆娛樂產業,帶來有線電視和 Netflix 的終結。”

2015 年,谷歌宣佈將釋出其內部開發的人工智慧演算法 TensorFlow 工具。這是一個改變世界各地人工智慧研究和開發基本基礎的舉動。借用谷歌執行長的話來說,“這個可以和電力帶給人類社會同樣深遠影響的技術方法將是開放的、易於使用和免費的。”從此,進入人工智慧演算法的壁壘從一張博士證書,降低到一臺膝上型電腦。

但是這也意味著 TensorFlow 的洪荒之力已經超出了 Google 的控制。僅兩年多之前,學術界和矽谷還是軟體領域最大的貢獻者,但現在這個局面正在發生變化。deepfakes 就像是催化劑一樣,攪動了局面的發展。這是一個匿名 Reddit 使用者用 AI 軟體構建的專案,可自動將任何臉部影像(幾乎)無縫地拼接到視訊中。Motherboard 首先報導了這個專案,這個軟體可以用來把任何人的臉,比如 Facebook 上一位著名女影星或者朋友的面部影像,完美地嫁接到色情女演員的臉上。

此後,有使用者建立了自己的 subreddit,使用者累計超過 91000 名。另一個名為 deepfakeapp 的 Reddit 使用者也釋出了一個名為 FakeApp 的工具,在有硬體保障的前提下,所有下載這款 AI 軟體的人都能夠輕而易舉地上手自己做假色情視訊。直到 2 月 7 日,Reddit 上的這個社群已經被禁止,理由是它違反了網站的非自願色情政策。

根據 FakeApp 的使用者指南,該軟體建立在 TensorFlow 框架之上。谷歌員工使用 TensorFlow 開創性地進行了類似的工作,只是設定和主題略有不同,訓練演算法從頭開始生成影像。deepfake 其實也是挺有意思的,比如有人用它把 Nicolas Cage 放在一堆不同的電影裡,畫面詼諧有趣。但是,不得不承認事實上訂閱 deepfakes 中的 91000 名 subreddit,就是為了看色情片而來。

然而,雖然 TensorFlow 的開源帶來了很多好處,例如潛在的癌症檢測演算法,但是 FakeApp 的盛行卻代表了開源的黑暗面。谷歌(以及微軟、亞馬遜和 Facebook)無私地將強大的技術力量賜予了全世界,不求回報,所有人都可以下載 AI 軟體,並將其用於任何資料集的建立,包括從偽造政治性演講(在語音模仿 AI 工具的幫助下),到生成假的色情內容。所有的數字媒體都是由一系列的“0”和“1”組成,而人工智慧則可以巧妙的方式“創造”從未存在過的事情。

由於軟體可以在計算機上本地執行,因此大型科技公司在軟體在離開伺服器之後會失去對它們的控制。開放原始碼的信條,或者至少在現代軟體開發中的發展狀況,決定了這些公司無法對其他公司利用這些軟體做了些什麼負責。就這樣,它的存在就像一把槍或一支香菸。

而且似乎沒什麼動力可以改變它的現狀:正是因為它讓更多的人可以開發 AI,自由軟體成為這些公司盈利相當好的業務。每個大型科技公司都在爭奪儘可能多的 AI 人才,而湧入這個領域的人越多越好。另外,其他人使用能夠激發新產品生產的程式碼進行專案開發,公司以外的人員可以找到並修復錯誤其中的錯誤,並用這個軟體對本科和博士生進行教學,為這些已經瞭解公司內部使用工具的新人創造了機遇。

“人們在過去的五年中談到機器學習方面的重大突破,但真正的重大突破不是演算法。演算法實際上與 70 年代,80 年代和 90 年代沒有大的區別,真正的突破是開源,”AT&T 先進技術部副總裁,前機器學習研究員 Mazin Gilbert 說:“開放原始碼降低了進入門檻,讓演算法不再是 IBM、谷歌和 Facebook 獨有的技術實力了。“

開源軟體也使得 AI 開發中的道德問題變得複雜化。Google 今天提供的工具並不是建立天網或其他超級智慧的關鍵,但它們仍然可能造成很大的負面影響。谷歌和微軟等提供開源人工智慧框架的公司一直聲稱人造智慧不會違背倫理道德,他們的在職人員科學家已經簽署了承諾,併成立了專門研究這個主題的小組。但是這些公司不會為下載他們的免費軟體的使用者提供任何指導或授權。 TensorFlow 網站有軟體執行的說明,但卻沒有關於軟體使用軟體倫理道德的免責宣告,以及確保資料集無偏見的說明。

幾個月前,當我問微軟人工智慧副總裁 Harry Shum,公司計劃如何引導那些使用開源軟體和付費開發者工具來建立符合道德標準的機器學習系統時,他表示他也不太清楚。

Shum 說道:“這真的很難,我不認為我們現在能提出一個簡單的解決方案。我們正在逐漸學習的一件事是,當我們設計機器學習演算法時,要嘗試找到盲點。”

Google 亦沒有回應類似問題。

將 AI 從開放原始碼移出也不是一個理想的解決方案。如果閉塞軟體的資訊,我們很難了解這些不透明的科技公司究竟如何開發他們的人工智慧演算法。我們可以在 ArXiv 等網站上免費釋出研究成果,在 Github 上分享原始程式碼,這意味著記者、學者和倫理學家可以從中發現潛在的問題並要求問責。而且,大多數人使用 AI 工具包進行生產性使用,例如應用程式中的標準影像識別或分類黃瓜等物品。

並不難想象,不久可能會有其他型別的假視訊將通過 Facebook 和 Twitter 等主流平臺得以散播,並在這些社交媒體中找到立足之地,這並不是什麼遙不可及的事情。雖然人工智慧研究人員一直在尋找解決方案,但不會很快找到方法。畢竟,這樣的軟體已經出現了。

由於這種核心技術的開發者,比如 deepfakes 的創作者將拒絕為承擔責任,所以負擔將落在視訊和影像共享平臺。例如,Gfycat 刪除了網站上所有 Deepfakes GIF。Reddit 已經關停了 deepfakes 社群。色情視訊網站 PornHub 也表示將刪除此類視訊,因為其認為相關人的肖像使用沒有得到本人的首肯。但是 deepfakes.club 仍然沒有禁止。

無論 deepfakes 軟體將來的境遇如何,相信這都只是一個開始。

原文連結:qz.com/1199850/goo…

更多幹貨內容,可關注AI前線,ID:ai-front,後臺回覆「AI」、「TF」、「大資料」可獲得《AI前線》系列PDF迷你書和技能圖譜。

相關文章