根據哥倫比亞新聞評論的數字新聞中心最新研究流行的 AI 搜尋工具在回答問題時超過60% 的機率提供了不正確或誤導性的資訊。這一結果令人擔憂,因為這些工具不僅削弱了公眾對新聞報導的信任,也使出版商面臨流量和收入的雙重損失。

研究人員測試了包括 ChatGPT、Perplexity、Gemini 和 Grok 在內的八款生成式 AI 聊天機器人,要求它們識別來自200篇最新新聞文章的摘錄。結果顯示,超過60% 的回答都是錯誤的,這些聊天機器人經常捏造標題、不引用文章或引用未經授權的內容。即使它們能正確指出釋出者,連結也常常指向失效的 URL、轉載版本或與內容無關的頁面。

令人失望的是,這些聊天機器人很少表達不確定性,反而以不當的自信提供錯誤的答案。例如,ChatGPT 在200個查詢中提供了134條錯誤資訊,但僅在15次中表示過懷疑。即便是付費版的 Perplexity Pro 和 Grok3,其表現也不盡如人意,錯誤答案的數量更高,儘管它們的價格分別為每月20美元和40美元。

在內容引用方面,多個聊天機器人未能遵循出版商的限制嘗試,五款聊天機器人甚至忽視了機器人排除協議這一被廣泛接受的標準。Perplexity 就曾在出版商限制其爬蟲的情況下,正確引用國家地理的文章。與此同時,ChatGPT 透過未授權的 Yahoo 新聞重新引用了收費牆內容的 USA Today 文章。

此外,很多聊天機器人將使用者引導至 AOL 或 Yahoo 等平臺的轉載文章,而非原始來源,甚至在已經與 AI 公司達成授權協議的情況下。例如,Perplexity Pro 引用了德克薩斯論壇的轉載版本,卻未能給出應有的署名。而 Grok3和 Gemini 則常常發明 URL,Grok3的200個回答中有154個連結至錯誤頁面。

這一研究突顯了新聞機構面臨的日益嚴重危機。越來越多的美國人將 AI 工具作為資訊來源,但與 Google 不同,聊天機器人不會將流量引向網站,反而會在沒有連結回去的情況下總結內容,從而使出版商失去廣告收入。新聞媒體聯盟的丹妮爾・科菲警告稱,如果沒有對爬蟲的控制,出版商將無法有效 “變現有價值的內容,或支付記者的薪水”。

研究小組在聯絡 OpenAI 和微軟後,他們雖然對自己的做法進行了辯護,但並未回應具體的研究發現。OpenAI 表示,它 “尊重出版商的偏好”,並幫助使用者 “發現優質內容”,而微軟則聲稱其遵循 “robots.txt” 協議。研究人員強調,錯誤的引用做法是系統性的問題,而非個別工具的現象。他們呼籲 AI 公司改善透明度、準確性以及對出版商權益的尊重。

自  AIbase基地