那些羞羞的事情,AI能理解嗎?

AI科技大本營發表於2019-02-22

640?wx_fmt=jpeg


譯者| 劉暢

責編 | 琥珀

出品 | AI科技大本營(公眾號ID:rgznai100)


【導語】訓練一個可以識別裸體的人工智慧系統,比你想象的要難。


2018 年 12 月 17 日,Tumblr(湯博樂)網站宣佈即日起全面禁止色情內容。當這項新的政策實施了兩週後,就立馬暴露出了問題。在 Tumblr 的人工智慧系統成功部署後,它對一些中立的內容進行了錯誤標記,導致該網站的 4.554 億個部落格和 1662 億個帖子無辜躺槍。它們的內容僅包含花瓶、女巫、魚類以及介於它們中間的所有內容。


目前該公司並未對此有任何回應,也不清楚Tumblr使用的是何種內容過濾技術,或者是否建立了自己的內容過濾系統,但顯然,社交網站在政策和技術方面都陷入了困境。例如,關於“女性乳頭”和“藝術裸體”的外延,Tumblr 認為是取決於上下文語境,這透露出 Tumblr 自己也不確定它想要在平臺上禁止什麼內容。也難怪,站在企業的立場,究竟該如何定義“淫穢”內容呢?


如果很難給出定義,就很難阻止“淫穢”內容。首先,定義“淫穢”本是個陷阱。歷史可以追溯到 1896 年左右,當時美國首次通過規範“淫穢”的法律。 1964 年,“雅各貝利斯訴俄亥俄州”一案中,關於俄亥俄州是否可以禁止出演著名的路易·斯馬勒(Louis Malle)電影,最高法院給出了可能是迄今最著名的有關“硬核色情”的一句話。


“我今天不打算進一步去定義我所理解的那種在速記中被包含的內容,‘硬核色情片’,也許我永遠也不會成功地做到這一點。但我知道,當我看到它的時候,它的動作畫面就不是這樣了。” 法官波特·斯圖爾特在他的贊同意見中如是說。


機器學習演算法也處於同樣的窘境,這是 Picnix(一家提供定製化AI服務的公司) 的執行長 Brian DeLorge 正試圖解決的問題。Iris 是其產品之一,專門用於檢測色情內容的客戶端應用程式。正如 DeLorge 所說,“誰不希望生活中有點色情內容?”他指出另一個問題,色情片可以是很多不同的東西,但色情與非色情影像會共享相似的影像特徵。


 一張海灘上派對的照片可能被封殺不是因為它上面展現的皮膚比一張辦公室的照片更多,而是因為它觸碰到色情影像的邊緣線了。“這就是為什麼很難將影像識別演算法訓練成一種可廣泛應用的解決方案,”DeLorge 繼續說到,“如果關於“淫穢”的定義對人類來說很困難,那對機器學習技術來也同樣如此。”如果人們無法就色情是什麼達成一致,那麼 AI 是否有望學習裡面的差異呢?


教 AI 如何檢測色情片,第一件事就是收集色情片作為訓練集。網上有很多的色情片。在哪裡可以得到它們呢? “人們經常從 Pornhub、XVideos 等網站下載,”Lemay.ai 的聯合創始人兼技術長 Dan Shapiro說到。Lemay.ai是一家為其客戶建立 AI 過濾技術的初創公司。“這是一個合法的灰色地帶,但如果你正在使用其他人的內容進行訓練,(訓練)結果是否屬於你?”


從你最喜歡的色情網站獲得訓練資料集之後,下一步是從色情的視訊中刪除所有不是色情內容的幀,以確保你正在使用的幀不是像一個拿著披薩盒子的人。平臺會向大多數美國以外的人付費,來標註這些內容。這通常是一個低工資的重複勞動,就好像那些每次填一個驗證碼的工作。Dan Shapiro說到,“他們只是標註像‘這種色情片’或‘那種色情片’。通常你還可以再過濾一下,因為色情片上已經有很多可用的標籤了”。當你使用不僅僅包含色情內容的大資料集時,訓練效果往往會更好。”


Shapiro 說:“很多時候,你不僅需要過濾色情內容,而且也需要過濾掉與色情內容相近的東西。像人們貼出的這些虛假檔案,一張女孩的照片,一個電話號碼。”在這裡,他指的是尋找客戶的性工作者,但很容易就被誤認為是合法問題。“這不是色情片,但它是你不想放在平臺上的東西,對嗎?”一個好的自動化的檢測模型至少需要在數百萬級的內容上進行訓練,這意味著需要投入大量的人力。


“這就類似於孩子和成年人間的不同,”Clarifai 的創始人兼 CEO Matt Zeiler說道,Clarifai 是一家為企業客戶提供影像過濾的計算機視覺創業公司。“我可以說這是事實,幾個月前我們剛生了一個孩子。他們對這個世界一無所知,一切都是新的。“你必須向寶寶展示很多東西,以便他們學習。“你需要數以百萬計的例子,但對於成年人,由於現在我們已經擁有了很多關於世界的背景知識,並理解它是如何運作的,我們只需要幾個例子就可以學到新東西,”他說。


上述文字解釋一遍就是:訓練 AI 系統來過濾成人內容,就好比向寶寶展示大量的色情內容。


今天,像 Clarifai 這樣的人工智慧技術供應商已經成長起來了。他們對世界有很多基礎知識,也就是說他們知道狗是什麼樣,貓是什麼樣,什麼是樹,什麼不是樹,以及最重要的,什麼是裸體,什麼不是裸體。 Zeiler 的公司使用自己的模型為其客戶訓練新模型,因為原始模型已經能處理很多資料,因此定製的版本僅需要來自客戶的新訓練資料,就能啟動和執行。


儘管如此,人工智慧演算法還是很難有正常的判斷。 對內容明顯是色情的,分類器效果很好;但它可能會錯誤地將內衣廣告標記為色情,因為圖片中的皮膚比例更多。(例如,分類器很難正確分辨比基尼和內衣。)這意味著做標籤的人必須對那些模稜兩可的訓練集更細心,需要優先考慮模型難以分類的內容。那其中最難的一個例子是什麼呢?


“動漫色情片。我們的第一版色情檢測演算法沒有接受過任何卡通色情內容的訓練。”很多時候人工智慧系統會失敗,因為它不理解什麼是變態。“因此,一旦我們為該客戶做這樣的工作,我們就將大量資料整合到模型中,就大大的提高了檢測漫畫的準確性,並同時保持了在真實照片上的檢測準確率,”Zeiler說。“你不知道你的使用者會做什麼。”


用來檢測色情片的技術也可以用來檢測其他東西。系統的基礎技術非常靈活。這個靈活度比得上動漫裡誇張的胸部。Perspective,是一個來自 Alphabet's Jigsaw 的被廣泛用於報紙自動評論的模型。


Jigsaw 的溝通主管 Dan Keyserling說,在 Perspective 之前,“紐約時報”只對大約10%的作品發表評論,因為他們的版主可以在一天內處理的數量有限。他聲稱 Jigsaw 的產品可以使這個數字增加三倍。該軟體與影像分類器的工作方式類似,不同之處在於它對“毒性”進行排序,它們定義“毒性”為某人可能會根據評論而不是色情進行的對話。(毒性在文字評論中同樣難以識別,就好比識別影像中的色情影像。)再比如,Facebook 使用類似的自動過濾技術來識別有關自殺的帖子和內容,並試圖利用該技術在其龐大的平臺上發現虛假新聞。


整個事情仍依賴於標記資料才能發揮作用。 Zeiler 並不認為他的產品會讓任何人失業。它本來就是在解決網際網路上的“尺度問題”。一個婚禮部落格 Clarifai 使用其產品來進行自動化的內容稽核,而以前負責審批影像的編輯則轉向從事定性標記的任務。這並不是要降低自動化下真正的人力成本。人們必須對AI進行訓練,並對內容進行分類然後進行標記,以便AI 能夠識別哪些不能或可能導致創傷後應激障礙(PTSD)。


這才是未來應有的樣子:公司提供個性化,現成的解決方案,使其全部業務能夠在越來越多的資料上訓練更好的分類器。就像Stripe and Square為不想在內部處理支援的企業提供現成的支付解決方案一樣,而AWS 已經確立了自己作為託管網站的地位,像 Zeiler的 Clarifai、DeLorge的 Picnix、Shapiro 的 Lemay.ai 等創業公司正在爭相成為線上內容稽核的一站式解決方案提供商。Clarifai已經擁有適用於 iOS 和 Android 的軟體開發套件,Zeiler 表示正在努力讓產品在物聯網裝置(如安全攝像頭)上執行,但實際上,那意味著每個裝置上都需要有優化的 AI 晶片或足夠的終端計算資源。


Lemay.ai 的 Dan Shapiro 滿懷希望。“與任何技術一樣,它還沒有完全發明成功,”他說。“所以這樣做是不合理的,就好比我對一家公司的安排不滿意,就開始想著放棄。”但無監督學習是否是一條好的出路?這就比較費解了。 他說:“你需要從某些地方獲得訓練資料”,這意味著總會涉及到人的因素。“不過這是一件好事,因為它會減輕人們的壓力。”


另一方面,Zeiler 認為 AI 終有一天能夠自己適應一切。 他說:“我認為很多人的努力方向將轉變為人工智慧今天無法做到的事情,比如高階推理、自我意識,就像人類所擁有的那樣。”


識別色情片就是其中的一部分。識別它對於人來說是一項相對簡單的任務,但訓練演算法識別其中的細微差別卻要困難得多。弄清楚檢測模型將影像標記為色情或非色情的閾值也很困難,而且還受到數學上的限制。該函式稱為精確-召回率曲線(precision-recall curve),它描述了模型返回結果的相關關係,但是人類需要的是靈敏度。


正如 Alison Adam 在其 1998 年出版的《人工知識:性別與機器思維》一書中提到的那樣,無論是學習、在空間中移動和互動、推理,還是使用語言,AI 的目的是“模擬人類智慧的某些方面”。 AI 是我們如何看待世界的一個不完美的鏡子,就像色情是當兩個人獨處時的反應一樣:它可以說是一種片面性的真理,但卻不是整個全貌。


參考連結:https://www.theverge.com/2019/1/30/18202474/tumblr-porn-ai-nudity-artificial-intelligence-machine-learning


(*本文為 AI科技大本營編譯文章,轉載請聯絡微信 1092722531)

精彩推薦

640?wx_fmt=jpeg

640?wx_fmt=jpeg

推薦閱讀:

                         640?wx_fmt=png

點選“閱讀原文”,檢視歷史精彩文章。

相關文章