Facebook祕密檔案洩露:賺錢(和背鍋)是AI的使命

量子位發表於2018-04-18
夏乙 李杉 發自 凹非寺
量子位 出品 | 公眾號 QbitAI

國會聽證大戲剛剛落幕,一份機密檔案的曝光,又把Facebook推到了聚光燈下:

這家公司利用AI賺錢,有很特別的方式。當然,美國民眾聽聞之後,又是一陣緊髒。

640?wx_fmt=gif&wxfrom=5&wx_lazy=1

賺錢利器

美國媒體The Intercept最新獲取了一份Facebook機密檔案,其中透露了Facebook提供給廣告主的一項貼心服務:忠誠度預測

這是一項基於人工智慧的服務。

所謂忠誠度預測,簡單來說就是一句話:預測使用者的未來行為,作為廣告投放的依據。

640?wx_fmt=gif&wxfrom=5&wx_lazy=1


在別的平臺,廣告主能根據使用者現狀來精準投放廣告,而在Facebook,廣告主依據的,可能是使用者還沒做出的決定。

通過預測自己的20億使用者接下來面臨什麼選擇,Facebook做到了“比你更懂你”,幫廣告主“提升了營銷效率”。

比如說,有了忠誠度預測服務,Facebook完全可以說:親愛的蘋果,親愛的三星LG華為,我們的AI能預測出幾百萬iOS使用者有心轉投Android,你們要不要精準投放一下?

你接下來做出什麼決定,就在平臺和廣告主一念之間。

相比之下,購物車裡放個高達就再送上一大波手辦的淘寶,根據搜尋詞來分發廣告的Google百度,都太簡陋了。

因為Facebook所掌握的資料,詳細周全到任何一家同行都望塵莫及。

640?wx_fmt=jpeg

 Facebook如何用AI來精準投放廣告。The Inception整理

從檔案中可以看出,Facebook“忠誠度預測”依靠的資料有:使用者位置、裝置資訊、所連線Wi-Fi網路的情況、看了什麼視訊、親朋好友的各種細節……

甚至你和朋友聊天的內容,也是廣告投放的指路明燈。參議員Bill Nelson就遇到了:“昨天我在Facebook上跟朋友聊天時,提到喜歡某種吃巧克力,接著突然我開始收到各種巧克力的廣告。”

這位參議員遇到的,只是Facebook廣告服務的冰山一小角。

640?wx_fmt=gif

這就好像,你的一切,早已經被Facebook的AI看光光。

這就是上面提到的,AI比你更懂你。

這個技能,如果被“泛化”……應用在其他方面,或者被其他人所利用的話,想想還真是有點怕怕。這也難怪美國人民又有點炸鍋。

Facebook說,為保護使用者隱私,所有資料都聚合的、匿名的。當然,Facebook也不賣資料,他們出售,或者說出租的,是通過自己分析資料而實現的“預測”能力。

劍橋分析獲取的那點三手資料,都能用來實現千人千面推送政治廣告,手握20億使用者全方位資訊的Facebook,要決定你下一部手機來自誰家只會更容易。

面對質疑,Facebook想扯上同行們。這家公司在回應中表示:

和很多其他廣告平臺一樣,Facebook用機器學習技術,來向正確的人展示正確的廣告。我們並不宣稱知道人們所思所感,也不會將使用者個人資訊分享給廣告主。

擋箭牌&背鍋俠

你以為AI只能用來賺錢?拿衣服。

Facebook最近還為AI開闢了又一大新功能:背鍋。

640?wx_fmt=png

國會山10小時,人工智慧戲份不少。小扎反覆提起,似乎十分依賴,甚至寄予厚望。但深究起來,它一直是個擋箭牌背鍋俠

減少仇恨言論?AI能搞定。

恐怖主義招募資訊?AI能搞定。

虛假帳號?還是AI。

俄羅斯干涉大選?AI。

種族歧視廣告?AI。

安全問題?AI。

那這個問題怎麼解決?靠AI吧。

問題為什麼還沒解決?AI還不夠好。

640?wx_fmt=gif

在內容審查問題上,Facebook的AI就一直在嘗試,從未被認可。

小紮在聽證會上反覆提到,Facebook的檢測系統在沒有任何人新增標籤的情況下就自動刪除了99%的“恐怖主義內容”。2017年,Facebook宣佈“嘗試”用人工智慧來探測“可能支援恐怖主義”的言論。

99%的“恐怖主義內容”,很可能是以圖片和視訊形式為主。經過訓練的機器學習演算法,現在識別影像的準確率在特定的資料集上甚至早已超越人類,各家公司也都投入了大規模的使用。

但是,更多的內容是以文字形態出現的。

但是,AI理解自然語言的能力甚至還達不到幼兒園水平。人類語言的一些細微差別,人工智慧識別起來表現堪憂,讓它來分辨真假新聞也是強AI所難。

小扎自己也承認,Facebook用來識別仇恨言論的AI,現在錯誤率實在是太高了。想要依靠AI稽核內容,可能“還需要5-10年”。

到今年年底,Facebook打算僱2萬人來做安全和內容審查。

640?wx_fmt=gif

這種反覆用“人工智慧”做辯護的行為,也遭到了媒體的批評。

人工智慧這個詞太寬泛了,想要確切地定義它,寫進教材就是整整一章。它包含各種自動化、機器學習等等。The Verge發表的一篇文章說,“人工智慧”這個詞,讓小扎在一群外行人面前找到了一種託詞,畢竟他們沒有能力展開深入提問。

欺負我們不懂技術?有一位議員做出了反擊。

加里·彼得斯(Gary Peters)追問了一個關於人工智慧透明度的問題:“你知道,人工智慧並非沒有風險,你必須對這種演算法的構建方式保持極高的透明度。”

是的,你的擋箭牌:人工智慧,它本身就很有問題

祖克伯承認這個問題非常重要,他還表示,Facebook有一整個人工智慧倫理團隊來解決這個問題。

只不過,就算不說人工智慧,Facebook以及它的同行們,對“透明度”的理解也只是基本等同於“模糊地寫在使用者協議裡”。這似乎並不能解決什麼問題。

至於Facebook這一輪道歉的核心——資料洩露並被Cambridge Analytica濫用的問題,人工智慧也幫不上什麼忙。

而在真的需要人工智慧的時候,它雖然有著巨大潛力,卻也會因為使用了有問題的資料集而帶上偏見。傾向於將黑人認作罪犯、認為女性和科學工作不搭等等問題,在人工智慧的應用中層出不窮。

For Good

祖克伯在聽證會上說:

Across the board, we have a responsibility to not just build tools, but to make sure those tools are used for good.”

打造工具,並確保這些工具用來做好事了。但願小扎和他的同行們真的相信這句話,還能記住它。

最後發個彩蛋,小扎這次的國會聽證,不少美國人看完之後,說祖克伯是機器人……然後就有人出來惡搞了不少視訊。

這是其中一段。

說著說著短路了……

640?wx_fmt=gif

修吧修吧,修好了……

640?wx_fmt=gif

週末快樂~

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。

640?wx_fmt=jpeg

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態


相關文章