全球範圍內新冠肺炎的形勢撲朔迷離。除了日益增長的確診人數令人壓抑之外,更讓人擔憂的是國外社交媒體上不斷冒出“反隔離運動”、“病毒是騙局”、“口罩是壓迫”等極端言論。反疫苗分子也趁機出來活動,散佈各種陰謀論。部分美國民眾甚至願意相信,口罩上的鼻樑條是5G天線,用於控制思想、傳遞訊息,或能夠使人罹患腦癌。類似的極端內容在社交網路上獲得了大量的關注和轉發,每次瀏覽都會讓人感到迷惑:
這些熱衷於傳播極端言論的使用者,到底是在反諷,還是真的相信自己轉發的內容?
其實並不僅僅是疫情爆發期,對極端觀點的追逐是社交媒體的長期趨勢。
牛津大學 Seth Flaxman 教授於2018年釋出了一篇研究,他的團隊分析了5萬名美國網際網路使用者的瀏覽歷史,得出了一個結論,社交媒體及搜尋引擎使用者傾向於使用比較極端的新聞來源——譬如布萊巴特新聞網(美國極端保守主義媒體)而非偏中立的福克斯新聞——毋庸置疑,這樣的閱讀習慣會影響到整體內容的導向。
社會心理學領域有個理論叫做“動機性推理”,指的是人非常依賴自己固有的認知,往往會投入大量認知資源來駁斥異己之見,從而更加堅定自己的想法。事實上,大多數網際網路使用者對與自己不同的觀點的接受度都是非常有限的。這一點和使用者的年齡、學歷沒有關係,不論受過高等教育的人,還是泛娛樂化的低齡使用者,都難免陷入其中。
不管是網路還是現實語境,使用者都是為了尋求共鳴而非異見,而網路恰好可以幫助人們更容易找到想法類似的同類,並通過話題、“贊轉評”等方式為使用者提供了抱團的機會。當某個公共事件發生後,群體中少數使用者之間觀點碰撞產生共鳴,進而發酵形成煽動性的氛圍,產生輿論主場,並將群體的情緒向極端方向引導;在面對這種通過群體傳染不斷放大並迅速擴充套件的行為或言論時,多數個體的判斷能力和自控能力都會大大降低,怕孤立、易跟風,極易失去理智——這正是群體極化理論的典型路徑。
圖片來源unsplash
古斯塔夫·勒龐的《烏合之眾》中有個很經典的觀點:“群體不善推理,卻急於採取行動”。社交網路剛好滿足了群體、時限性強、行動門檻低等條件,因此為極端觀點的傳播提供了極大的方便:藉助熱點事件,創造一些激進的口號標籤等符號建構,增強受眾的認同感,很容易就能在社交網路上快速傳播開。社交網路的使用者不在意自己所獲取和傳播的資訊是不是真相,而更在意自身的情感情緒是否在事件中獲得代入感。
而使用者偏好極端內容帶來的惡性迴圈是,有些原本溫和中立的KOL,在網上持續輸出內容一段時間後,其觀點也逐漸變得極端。這不難理解,內容生產者很容易從讀者的反饋中總結出規律,充滿攻擊性的極端內容是獲取關注度的一條捷徑,他們自然樂於以此來討好自己的讀者,由此產生極端內容傳播的惡性迴圈。
對於一些社群來說,極端內容意味著爭議,即可以帶來多方人群的重重討論,且不論理是否能越辯越明,流量肯定是越辯越多,因此一些產品對於極端內容的態度也是曖昧的。
以Facebook為例,極端內容的盛行之下,其推薦演算法可能是誘因之一。社會學家兼Facebook研究員Monica Lee研究發現,近2/3加入極端主義小組的使用者都是被Facebook推薦吸引而非主動檢索。演算法分析使用者在平臺上每一個行為,繼而推薦更多可能喜歡的內容,興趣轉化為點選,點選轉化為參與和活躍度,最終達成商業變現。
圖片來源unsplash
視訊網站YouTube上曾經發生一起大V約架事件:一位擁有400萬粉絲的視訊博主、喜劇演員Steven Crowder在上傳的視訊中對科技媒體Vox的評論員Carlos Maza的種族和性取向出言不遜,並任由其粉絲在Maza的評論區發表了大量極端的侮辱性言論。Maza向平臺反映了無數次都沒有得到很好的解決,無奈釋出了一條視訊控訴YouTube的內容審查和網路暴力管理鬆散。迫於Maza的影響力,Youtube方面終於做出了處理——但也僅僅是Crowder的違規視訊不再享受廣告分成而已。某種程度上,這兩個例子正印證了極端內容與流量的衝突性,相比普通內容,前者更能啟用討論,進而增加流量,也難免一些社群對極端內容態度曖昧。
極端內容的流行可以追溯自網際網路誕生之初對自由平等的追求,社交網路的崛起源自於人們相互交流與資訊獲取方面的需求。任何社群成立之初,都希望建立一箇中立、平和的交流之地。
Facebook和Twitter也都試圖在允許使用者發聲和內容監管之間達到一種平衡,即使在法律要求下不得不刪除一些不恰當內容,他們也儘量表現得寬容,原因是他們不想得罪使用者。
約翰·霍普金斯大學的Steven Salzberg教授曾撰文對反疫苗分子進行了嚴肅的批判。這些極端分子到處建立新的論壇、Facebook小組拉攏成員,甚至還拍攝了紀錄片來散佈有關疫苗的錯誤資訊,不斷宣傳疫苗會導致自閉症等說法。其內容缺乏科學依據,卻憑藉煽動性的描述和焦慮渲染對新手父母造成了誤導。
Steven Salzberg教授將其行為與邪教進行了類比,指出了反疫苗分子與邪教類似的四個特徵:
1. 組織成員具有外人無法理解的特殊見識;
2. 該組織及其領導人是瞭解「真相」的唯一途徑;
3. 對外部世界不合理的恐懼,例如即將發生的災難,邪惡的陰謀和迫害;
4. 預算或支出沒有相應財務披露。
顯然,這些類似邪教組織的言論早已超出了言論自由的範疇,並且到了影響公共安全的地步。
極端內容的流行已經引起了監管部門的注意,尤其社交網路擁有大量的青少年使用者,其價值觀形成難免受到這些極端內容影響,並演變成違法犯罪等極端行為。因此,世界各國政府也在改進監管措施,以期對惡性事件防範於未然。
除了政府部門的監管、法律法規的健全之外,全世界不甘心受極端內容汙染的網際網路使用者也都在努力。
有開發者意識到這個問題,開發了外掛來標註極端內容:Affective Network團隊的開發者先是與Twitter使用者進行了一項實驗,旨在幫助他們更好地消化在網路上看到的新聞內容。隨後根據實驗內容,推出了Google瀏覽器外掛Affective Network(Aff-Net),它可以使Twitter使用者對內容進行過濾和彩色標記,使網際網路上的內容更加明確,以避免情緒、情感等心理健康受到網際網路上的內容影響。
平臺方也在做出一些努力,通過演算法來控制極端內容的流行。
Facebook自2016年以來為對抗“極端化”採取了一系列措施,包括改變內容推送演算法,使其包含更多來自朋友和家人的帖子;通過機器學習系統,更快地檢測仇恨言論和其他惡意內容;從演算法推薦中刪除違反Facebook政策的群組;組建內容審查隊伍,在全世界範圍內僱傭了三萬人來承擔網站安全工作。其負責人稱:
“我們已經採取了許多措施來減少可能在我們的平臺上導致極端化的內容數量,有時是以犧牲利潤為代價的。這項工作永遠不會結束,因為歸根結底,網路話語是社會的延伸,而網路話語又是高度極端化的。但我們的工作是減少極端化對我們產品體驗的影響,我們正致力於做到這一點。”
Twitter執行長Jack Dorsey也曾公開表態,任何人都不應成為網上謾罵的目標,Twitter不會為這種行為提供土壤。
YouTube在刪除不良內容方面也頗有經驗——在2018年7月到9月之間,共有780萬條視訊被刪除,80%都是被網站功能自動遮蔽的,且其中四分之三的內容沒有被瀏覽過。目前,YouTube的稽核團隊多達一萬人,負責刪除違規視訊和進一步改善各種機制和政策。
圖片來源unsplash
但是,面對海量盛行的極端內容,這些措施的真實作用如何,確實很難評估,至少我們作為使用者直觀感受上並不明顯。祖克伯在去年三月份一份公開信中寫到:“通過更新網際網路監管規則,我們可以保留其最好的一面:人們表達的自由、企業家創造的自由,同時保護社會免受更多危害。”這或許從側面印證了技術手段帶來的成果可能收效甚微。
對於普通使用者來說,身處資訊大爆炸時代,每天都能看到各類極端事件及言論,難免會產生興奮、焦慮、懷疑等情緒。有些專家呼籲由學校或社群組織開展媒體素養教育,向學生和公眾傳遞基本的批判思維和爭論中辨別偏見的方法,以更理智地評估訊息來源。
個體畢竟精力有限,沒有能力與極端內容作鬥爭,只能儘量遠離群體暴力的影響,並做好情緒管理,做到獨善其身。尤其要注意的是未成年孩子的家長。未成年人使用社交網路本身就面臨著沉迷、資訊焦慮等風險,倘若受到極端內容的影響,很容易墜入網路欺凌或被欺凌的深淵,因此家長需要對自己的孩子做好引導,教導孩子警惕極端內容的陷阱,客觀認識世界,剋制獵奇心理,避免落入群體狂歡的圈套。
來自: