迴音室效應
網際網路的發展資訊的爆發,會不會加速“迴音室”(echo chamber)效應?在這個時代,我們每天都會獲得很多資訊,而資訊過濾機制,具體地說是那些看不見的演算法,讓我們只跟政見相同的人交朋友,只看到我們想看到的東西,只聽到自己認同的觀點,似乎這個世界就是我們想得那樣,不斷重複之後,那些觀點不斷加深,最終變成一個只能聽到自己聲音的“密室”。這就是迴音室效應(echo chamber effect)。可怕的是,像Facebook和Google這樣的巨頭,它們一直在努力改進演算法,讓我們深陷其中。
Facebook新發論文,認為“迴音壁效應責任在使用者”
而今天發表在《科學》雜誌上一篇名為《Exposure to ideologically diverse news and opinion on Facebook(Facebook的訊息和觀點呈現意識形態多樣化)》的論文則得出了不同的觀點。在這篇論文中,Facebook資料科學家們首次嘗試量化社交網路的資訊流(News Feed)群分使用者的程度。根據該論文的研究結果,迴音室效應的直接原因並非Facebook的演算法,而是使用者本身。
在過去6個月的時間裡,Facebook的研究人員回顧了1010萬個美國的匿名賬戶,收集這些使用者的網友資訊和反應意識形態偏好的狀態。結果發現,這些人不會總是處於觀點相同的環境中,而是大部分時間出現在觀點不同的地方。研究人員表示,Facebook的演算法讓自由派有8%的時間存在於單一的觀點中,而保守派則是5%的時間。這說明在大部分時間裡,Facebook沒有讓使用者侷限接受同類的資訊,而是多元化的資訊。
Facebook的演算法會通過使用者的個人喜好決定News Feed資訊流的連結,而該研究發現,資訊的接受不完全決定於演算法,還有很大一部分原因是使用者本身是否點選。這個的意思是,演算法只是決定資訊的呈現,是否接受,還是由使用者自身決定。
以上研究的結果,換句話來說就是,Facebook的演算法阻礙使用者接受多元化的觀點的程度遠遠比不上使用者本身。就是說,使用者應該為只有單一意識形態而且“活在自己的世界”負責。
批評聲音:論文有嚴重邏輯缺陷
對此,有批評人士指出,這份研究論文有嚴重的邏輯缺陷。首先是Facebook的演算法已經過濾了一些訊息,使用者看到的是Facebook自以為使用者喜歡的,而後的不斷重複操作更是加深了這種“自以為是”和“單一觀點”。而且還有一些訂閱功能,這兩方因素不斷加強“錯誤”。在這樣的輪迴中,被演算法過濾的資訊、使用者不去點選某個連結檢視某些訊息,並不等於使用者不接受,不認同。
需要提出的是,在Facebook的這次研究中,使用者的樣本選擇有偏差,侷限於把定義自己為自由派或者保守派的使用者。而且研究樣本量僅佔14億使用者一小部分。
事實上,這不是Facebook第一次進行使用者研究了。早前,該公司還進行了一項關於使用者情緒與Facebook資訊的關係,因為有觀點認為Facebook在操縱使用者的情緒。如果這一次Facebook的研究資料是正確的,那麼,形成迴音室的真正原因是我們本身。
via:雷鋒網