翻譯:陳亦亭
上世紀60年代出現的一個說法叫:“個人的即是政治的。”這句話現在依然成立,但箇中緣由卻可能會讓你擔憂民主的未來。
約翰·赫爾曼(John Herrman)發表在《紐約時報雜誌》(The New York Times Magazine)上的報導,介紹了一些本質上以Facebook為生的出版物,在它們的使命裡,挑起事端的重要性不亞於告知資訊。
在自己的Facebook時間線上,人們會點選《媒體不會告訴你有關襲擊唐納德·川普(Donald Trump)的穆斯林的真相,因此我們將……》,或是《希拉蕊·克林頓(Hillary Clinton)剛剛在電視直播中承認了她投票支援伊拉克戰爭是行賄?》這樣的標題。之後,他們會被帶去滿是劣質廣告的頁面。
約翰以一些網站運營商為例。通過把在網上找到的瘋狂言論重發一遍,再起個聳動的標題,它們往往能降低實際報導和寫稿的成本,以此月入至少2萬美元(約合13萬元人民幣)。
Facebook並未直接從這種發帖中獲取多少收入,但在說到分享時,它和這些釋出者的利益非常一致。
釋出者喜歡分享功能是因為它把文章放在了更多可能會點選報導連結的人面前。畢竟,朋友之間政治傾向往往相同。Facebook喜歡分享則是因為它會構建對自己的忠誠。
對Facebook來說,分享是使用者構建個人品牌的一種途徑,是一份自我宣告,很可能會延長你在Facebook上停留的時間。這正是Facebook的電腦會觀察你在該網站上的一舉一動的原因。它想知道把什麼樣的故事放在你面前,你就會閱讀並分享它們。
一方面,這是一種貼心的服務:你會看到自己似乎會喜歡看的那一類新聞,它們代表著你的世界觀。另一方面,這會妨礙你遇到和自己不一樣的觀點。
對不同之處報以同理心是民主的本質,因此,演算法越是支援我們的觀點,民主的境況就越是糟糕。無需往遠了說,看看當前這個選舉季中雙方均有很多人對彼此不理解和藐視就知道了。
當然,在Facebook出現之前,這種現象早已存在。談話廣播節目和有線電視新聞讓一系列觀點得以呈現,最大的廣播網播出的節目支援的不是右派的世界觀,就是左派的。直接營銷也把我們孤立了起來,生活方式上的承諾只針對使用同一個郵政編碼的人。
通過谷歌(Google)那種私人化程度直抵個人的搜尋和購物選擇的廣告定位,網路生活把這種現象帶向了一個全新的水平。
機器學習和人工智慧領域的最新進展可能會加劇這個問題。它們是目標有限的統計學系統:如果事實證明你喜歡某種東西,你就會看到更多這類東西,你可能會喜歡並分享它們,而這又確保你會看到更多這類東西。
也許有人會打造一個推薦引擎,用來培養對他人生活和價值觀的同情心。但不要指望它。那樣會讓人感到緊張,並降低購買產品或在Facebook上分享連結的可能性。