毫無疑問,YouTube應當對平臺上的輿論和價值觀導向負責。

火星上曾經存在文明、法國總統馬克龍是魔鬼、911事件是美國政府發動的……你可能想不到,這些聳人聽聞的陰謀論在YouTube上頗有市場,流傳甚廣。究其原因,YouTube的推薦演算法有著不可推卸的責任——它為使用者推薦了更加極端的內容,很多時候會讓使用者偏離搜尋的初衷,在錯誤的道路上一路狂奔。毫無疑問,YouTube應當對平臺上的輿論和價值觀導向負責,問題如果得不到解決,YouTube就將始終面對質疑和譴責的聲音。本文編譯自紐約時報,作者Jack Nicas,原文標題“Can YouTube Quiet Its Conspiracy Theorists?”,希望給您帶來啟發。

氣候變化是一場科學家的聯合騙局,《聖經》曾預言川普將當選美國總統,埃隆·馬斯克(Elon Musk)是一個試圖征服世界的魔鬼崇拜者……所有這些不可思議的謠言都在YouTube上找到了組織。

多年來,這家由谷歌創辦和運營的全球最大流媒體網站一直是陰謀論者最高效的傳聲筒,YouTube自己也不得不承認這一點。2019年1月,YouTube表示將限制“可能以有害的方式誤導使用者”的視訊傳播。

此後一年裡,YouTube推薦的陰謀論視訊確實比以前少了很多。但加州大學伯克利分校(University of California, Berkeley)的一項新研究發現,演算法的改進並不徹底,而且YouTube還在繼續向使用者推薦各種型別的虛假內容。

這項研究在15個月的時間裡審查了800萬個YouTube上的視訊推薦,為反陰謀論鬥爭提供了迄今為止最清晰的圖景,得出的結論卻是喜憂摻半:目前,打擊陰謀論內容對谷歌、FacebookTwitter這些科技公司來說仍十分有挑戰性。

可以說,遏制陰謀論是對矽谷打擊虛假資訊能力的一場重大考驗,尤其是在2020年美國大選前的這段時間。

野火燒不盡,春風吹又生

YouTube強大的推薦演算法吸引了20億月活使用者觀看網站認為他們愛看的視訊,這使得它在世界範圍取代了電視曾經的輝煌地位。YouTube表示,使用者每天觀看平臺視訊的時間超過10億小時,其中超過70%的內容是由平臺推薦的,這使得推薦演算法躋身最具影響力的演算法之列。

YouTube上的大部分視訊都會投放廣告,帶來的收入能激勵釋出者不斷創作新的視訊,而YouTube也能從中分一杯羹。

然而,成功的背後有著黑暗的一面。研究表明,YouTube推薦系統性地擴大了那些分裂性、煽動性、明顯不可信的視訊帶來的影響,而其他旨在吸引眼球以帶來更多流量和廣告的演算法——比如Facebook的新聞推送,也存在同樣的問題。

代價很高昂:YouTube幾乎要被大量的錯誤資訊和令人討厭的上傳內容淹沒了。

伯克利的研究人員發現,YouTube基本上已經把一些型別的謠言從相關推薦中清除乾淨了,包括“地球是平的”、“美國政府發動了9·11恐怖襲擊”這兩個“重點打擊物件”。今年6月,YouTube表示,人們通過推薦觀看相關視訊的時間減少了50%。

然而,就在YouTube宣佈成功之後不久,“地平說”和“9·11真相”又捲土重來,並在之後幾個月反反覆覆地出現在推薦欄目裡。

不只是“地平說”和“9·11真相”流傳甚廣,研究人員發現,YouTube彷彿是妄想狂和多疑症的狂歡之地——南極洲的冰層下隱藏著天使;政府其實掌握了空中懸浮的祕術;探測器拍下的照片證明火星上曾經有過文明;喬治·布什的葬禮上,一系列政要們的鏡頭表明一個重大祕密即將被曝光……

一位名叫佩裡·斯通(Perry Stone)的“福音傳道者”頻繁地在YouTube上散佈一些謠言,比如聖 經可以預測未來、氣候變化不構成威脅、世界領導人崇拜魔鬼等等。他的每個視訊都有成千上萬的瀏覽量。僅僅是在這項研究中,斯通的視訊在相關推薦裡就出現了近8000次。

一段被觀看了60萬次的視訊“馬克龍會成為反基督者嗎”甚至聲稱,法國總統馬克龍是個不折不扣的魔鬼,證據之一是他贏得了66.06%的選票,而三個連寫的6在《聖 經》裡是魔鬼的代號。

陰謀論內容不光讓人啼笑皆非,而且正在往可怕的方向發展——美國聯邦調查局(FBI)最近指出,一些非主流陰謀論的傳播已然構成了美國國內的恐怖威脅。上個月,一名德國男子在YouTube上上傳了一段視訊,稱一個“看不見的祕密組織”在地下掩體中利用精神控制虐待兒童,隨後在法蘭克福郊區開槍打死了9人。

研究人員認為,YouTube其實能夠決定根除哪些型別的錯誤資訊,又默許哪些型別的錯誤資訊存在。“這表面上是技術問題,但歸根結底是政策問題,”研究的合著者、加州大學伯克利分校的電腦科學教授哈尼·法裡德(Hany Farid)說。

他補充道:“如果YouTube有能力讓一些問題百出的內容接近於消失,那麼完全可以在很多事情上做得更多。當他們說‘不行’的時候,意思其實是他們‘不’。”

YouTube發言人法沙德·沙德盧(Farshad Shadloo)卻表示,網站的推薦旨在引導人們觀看那些既有權威性又讓他們滿意的視訊,並且YouTube正在不斷改進生成推薦的演算法。

他說:“僅在過去一年中,我們就對推薦演算法進行了超過30次改進,以減少對不確定內容和有害資訊的推薦,包括氣候變化謠言和其他型別的陰謀論視訊。在我們的努力下,相關推薦內容的觀看時間在美國地區下降了70%以上。”

這個研究靠譜嗎?

為了更好地研究YouTube,法裡德和另一名伯克利研究人員馬克·法德爾(Marc Faddoul)以及谷歌前工程師紀堯姆·查斯洛特(Guillaume Chaslot)展開了合作(查斯洛特曾參與開發了YouTube的相關推薦演算法)。

自2018年10月以來,研究人員收集了YouTube上一千多個最受歡迎和推薦的新聞相關頻道的視訊邊上出現的相關推薦,這使得他們的研究成為相關主題下規模最大、最深入的研究之一。然後,他們發明了一種演算法,能夠對一段視訊傳播陰謀論的可能性進行0到1範圍內的打分,包括分析視訊的臺詞、文字描述和使用者評論。

與大多數YouTube相關研究一樣,這種研究方法也存在缺陷。判斷一個視訊是否會傳播陰謀論本身就是主觀的,讓演算法來做更可能導致錯誤。

為了減少錯誤,研究人員只考慮那些可能性得分高於0.5的視訊。他們還根據自己的打分對視訊數量進行了折算:例如,一個評分為0.75的視訊相當於四分之三個傳播陰謀論的視訊。

不過,這些推薦資訊是在沒有登入YouTube賬號的情況下收集的,不符合大部分人的觀看習慣。登入後,YouTube會根據人們的瀏覽歷史對推薦進行個性化處理。但是,研究人員無法大規模建立有一定瀏覽歷史的賬號,因此很難對個性化推薦進行研究。

這一挑戰阻礙了其他更進一步的研究。普林斯頓大學(Princeton University)電腦科學教授阿爾溫德·納拉亞南(Arvind Narayanan)說,他和學生們放棄了關於YouTube是否會讓使用者變得更激進的研究,因為他們無法研究個性化推薦。去年年底,Narayanan還對一項類似的研究提出了批評——這項研究在沒有登入的情況下得出研究結論,認為YouTube幾乎沒有讓使用者變得更激進。

在紐約時報的邀請下,納拉亞南對伯克利分校的研究進行了回顧。他表示,即使是在沒有登入的情況下,研究陰謀論內容推薦在一段時間內所佔比重是有意義的。但他說,如果沒有檢查個性化推薦,這項研究就無法總結YouTube給使用者造成的影響。

“對我而言,一個更有趣的問題是,YouTube上的陰謀論視訊對人和社會有什麼影響?”納拉亞南在電子郵件中說,“沒有YouTube的合作,我們就無法好好研究這個問題。”

YouTube的發言人沙德盧對這項研究的結論提出了質疑,他強調研究是在非登入環境下進行的,並不能代表大多數人的體驗。他還說,研究中對用以收集推薦資料的頻道的選擇過於主觀,不能代表YouTube上的主流內容。

不過,研究人員堅持認為他們選擇的是最受歡迎和推薦的新聞相關頻道。

除了改進演算法、減少陰謀論視訊的推薦次數,YouTube還推出了其他舉措。比如,對於諸如登月和氣候變化相關的陰謀論,YouTube打算在視訊下面加入維基百科的連結,來讓那些站不住腳的說法不攻自破。

不過,這些措施是否真的有效,還是要打個問號。