演算法推薦技術從90年代開始顯露優越性以來,被充分運用於電商、社交、內容資訊等等眾多領域,並均為這些領域的革新做出了貢獻。
但近年來,演算法推薦卻不斷受到質疑,無論是本身的有效性,還是其社會影響,都面臨諸多爭議。許多網際網路產品也一改“唯演算法至上”的理念,在演算法與人工之間搖擺不定,甚至有不少產品開始進行取消演算法推薦的嘗試。
本期騰訊媒體研究院將分享一篇文章,談談有關演算法是否為技術上的倒退?演算法推薦會成為網際網路歷史上的一段彎路嗎?

01演算法推薦的發展簡史

演算法推薦分為許多型別,但簡單來說,其原理就是基於使用者的歷史使用行為或相關資訊,通過特定的資料模型,推測出使用者可能的偏愛喜好。
 
1998年,Amazon平臺上線了基於物品的協同過濾演算法(ItemCF演算法),將推薦系統推向服務千萬級使用者和處理百萬級商品的規模。這一技術機制的革新產生了良好的效果,Amazon銷售額提高了35%左右——這是推薦演算法從實驗室走向商業公司的一次成功應用。 
2006年,一家原本做DVD租賃的公司懸賞百萬招募演算法推薦系統,希望改善其影片推薦效果。最終,憑藉此次大賽的成果,這家公司成功轉型為線上影片點播平臺,並向使用者普及了“推薦”的概念——這家公司就是Netflix。 

圖片來自Netflix官方

視訊平臺YouTube同樣以演算法推薦為特色。它最早只通過點選和瀏覽量對內容進行排序,2012年YouTube開始採用複雜的推薦演算法,嘗試加入觀看時長、分享、喜歡等引數來向觀眾呈現視訊流。2016年9月,YouTube將其技術文件整理成論文《Deep Neural Networks for YouTube Recommendations (深度神經網路在YouTube推薦系統中的應用)》發表,公佈了從大規模可選內容中尋找最適合推薦結果的演算法路徑,探討了深度學習帶來的效能跨越式提升。 
在視訊網站之後,Facebook、Twitter等社交媒體也紛紛採用個性化資訊流,將內容按使用者興趣程度進行排列。從時間順序切換到演算法亂序推薦,儘管初期引發了部分使用者的不適,但之後便被證明,這一舉動帶來了使用者使用時長、廣告點選率的大幅增長。 
國內網際網路行業同樣擁抱演算法。二十一世紀的第一個十年之後,內容資訊平臺、短視訊應用改變過往人工推薦的習慣,逐步加大演算法推薦的比重,一大批代表性應用在這一浪潮中湧現出來。2016年又被稱為“智媒元年”,以紀念演算法推薦在內容分發領域所做出的重大貢獻。
 
毫無疑問,身處資訊大爆炸的背景下,演算法推薦是繼分類條目與搜尋引擎之後的又一技術革新,它極大地提升了資訊分發的效率和精準度,以此顛覆了人與資訊的相處方式,也得益於這種能力,逐漸被應用於交通、金融、法律等等人類社會的其他領域。 
與人工推薦相比,演算法推薦的優越性不言而喻。但距“智媒元年”已經過去5年,演算法推薦的發展雖然已經蓬勃,但它完全接手了網際網路領域的內容分發嗎? 
答案是否定的。

圖片來自公眾號公共圖片庫

02一些網際網路產品正在逐步嘗試演算法化

事實上,許多網際網路產品都開始考慮取消演算法推薦機制的可能性,並正在做出嘗試。 
YouTube客戶端和網頁端都開始提供“不看推薦”和“清除歷史觀看資料”的選項,使用者可以自由選擇切換,其兒童頻道YouTube Kids更是徹底取消了演算法推薦,改用純人工篩選內容。
 
Facebook新聞版塊在2019年開始招聘人工編輯(主要是資深記者),以應對各國政府對其平臺充斥極端內容的指控。 
2017年成立的資訊分發平臺Substack也是以人工推薦為特色,讀者通過郵件訂閱來接收內容,這吸引了不少懷舊的客戶,彷彿瞬間回到了RSS時代。該產品在多輪融資後估值已經達到6.5億美元。
為了與之抗衡,Twitter在年初收購了Substack的競爭對手Revue,而Facebook則新近推出了一款名為Bulletin的應用——二者均是以時事通訊作者為主的資訊平臺,並採用編輯篩選,按作者訂閱的模式。
 
誠然,演算法推薦帶來的使用者和收入不可估量,但這麼多的平臺都選擇重回時間流或人工推薦的形式,似乎也有那麼一些勢在必行的推力。除了商業模式上獨闢蹊徑的考量,或許也是對演算法推薦負面效應的一種回應。 
極端內容 
在《為什麼極端內容更容易流行?》一文裡,我們曾探討過推薦演算法對社交媒體上極端內容傳播的影響。極端內容是一條獲取流量的捷徑,而基於“流量至上”的理念,演算法往往在無形中為極端內容的傳播充當了推手的角色。 
以Facebook為例,近2/3加入極端主義小組的使用者都是被Facebook推薦關注而非主動檢索。YouTube也面臨同樣的問題,平臺持續不斷地調整其推薦演算法,儘量減少有害內容的推薦量以控制傳播,儘管如此,成效卻依然了了。因此這家公司保留了超過1萬人的稽核團隊,負責刪除違規視訊以及進一步改善各種機制和政策。 
網際網路公司也在嘗試更智慧的方式來自動識別極端內容,比如研發一些惡意內容檢測外掛,但這些工具並沒有很好地投入使用——因為過於嚴格的稽核會影響社群氛圍,平臺方不想因此造成過多的使用者流失。
 
資訊繭房 
不少讀者應該都會有過刷短視訊App一刷幾個小時忘了時間的經歷,原因就在於源源不斷的推薦會讓人深受吸引無法自拔。演算法推薦最初應用的目的,是為了提升檢索效率, 降低使用者的時間成本,快速匹配使用者最需要的內容,但卻逐漸演變成為增強使用者粘性,延長使用時間的機制保障,這顯然與本意有所偏離。 
引發更多爭議的是“資訊繭房”效應。演算法推薦會為了取悅使用者,不斷推薦其感興趣的內容,這讓使用者以自身興趣為磚瓦構築起一道牆,從此只能沉浸在自己喜愛的、熟悉的已知的世界裡,這就是“資訊繭房”所描述的狀態。
在學術界,針對這一理論的現實效應還存在不少爭議,但可以確認的是,演算法基於興趣的個性化推薦,確實收窄了使用者的資訊接收範圍,並減少了接受差異化訊息的可能性。在日漸封閉的資訊環境中,使用者只看自己想看的,只聽自己想聽的,並在不斷重複和自我驗證中強化固有觀念,進而相信一些扭曲的故事。
要知道,現在還有不少YouTube使用者堅信,地球是平的,人類並不曾登上月球,水可以變成汽油。 這就是資訊繭房的“功勞”。
失效的嚴肅內容傳播 
在快速資訊、短視訊領域,演算法推薦或許有著優越的表現,但在嚴肅內容的傳播上卻頻頻失效。這也是為什麼Twiiter、Facebook都選擇將嚴肅新聞與社交內容拆分,並投資做獨立的訂閱資訊平臺。 
演算法的基礎是海量的使用者資料收集,但是有些嚴肅內容,比如深度報導、行業知識等,本身受眾面窄,沒有辦法為機器提供足夠的基礎資料,自然也無法給出合適的推薦。另外,就像許多文藝類電影常常叫好不叫座一樣,很多優質內容與通俗內容放在同一個演算法池中,可能很快就被淹沒了,需要人工編輯撈出來。 
美國作家尼古拉斯·卡爾《淺薄:網際網路毒化了我們的大腦》,指出人們在享受網際網路所帶來便利的同時正在犧牲深度閱讀和深度思考的能力:“我們對瀏覽和略讀越來越得心應手,但是,我們正在喪失的卻是專注能力、沉思能力和反省能力。” 
這本書講的是超連結對網際網路使用者記憶力的損害,但是從條目瀏覽到搜尋引擎再到演算法推薦,資訊獲取的成本越來越低,留給人獨立思考的機會確實也越來越少了。

圖片來自公眾號公共圖片庫

03取消演算法推薦,不是技術倒退,是發展需求

在平臺行動起來做取消演算法推薦的嘗試之前,許多使用者已經提前意識到並展開行動。他們開始想辦法改變網際網路的使用方式,嘗試擺脫演算法的影響。基於行為型別的不同,又可以分為“佛系使用者”“自律性選手”和“懷舊型使用者”: 
因為演算法推薦需要獲取使用者行為資料才能夠生效,於是有的使用者選擇隱藏自己的行為,“不登陸、不點贊、不關注、不評論”,不留使用痕跡,避免定位、相簿、通訊錄等許可權被獲取,這類屬於佛系使用者,他們的戰略是儘可能讓演算法摸不清自己,從而在網際網路上當一個透明人。 
“自律型選手”主要警惕演算法引發的沉浸效應,通過手機時長管理軟體嚴格控制各個App的使用時間,避免使用易上癮App,偶爾不得不安裝就用完即刪,用強悍的自制力對抗強大的誘惑,進而實現防沉迷的效果。 
而“懷舊型使用者”則會拒絕市面上的大多數資訊集合App,他們會使用RSS工具將多個訂閱源整合在一起,從而實現內容都是自己主動關注的更新,與被動推薦的思路截然相反。對年輕人來說,這是一項古老的服務,卻是擴充視野、走出資訊繭房很好的對策。 
這麼多年來,演算法能夠在各個領域得到大規模應用,對資訊分發效率的提升以及社會運作有著不言而喻的意義。網際網路產品嚐試進行一些去演算法化的探索,並不是在強行逆轉技術的發展趨勢。在一定程度上去演算法化,只是讓演算法迴歸本意,更好地服務人類。
與此同時,不少網際網路產品也在對現有演算法進行著不斷優化以改善使用者體驗,根本目的就是要找出一種更具“可持續性”的發展模式。
過去,我們說演算法推薦的作用是把合適的內容推給合適的使用者,那麼,“去演算法化”就是“把合適的工作留給演算法,不合適的工作交給人工。”
轉載於騰訊研究院,作者二因斯坦