AI 驅動的「科學搜尋引擎」如何加速你的課題進度

ScienceAI發表於2024-10-15

AI 驅動的「科學搜尋引擎」如何加速你的課題進度

編輯 | 白菜葉

人工智慧 (AI) 工具正在改變我們的工作方式。許多產品試圖透過幫助研究人員整理大量文獻來提高科學研究的效率。

這些科學搜尋引擎基於大型語言模型 (LLM),旨在篩選現有研究論文並總結關鍵發現。人工智慧公司不斷更新其模型的功能,並定期釋出新工具。

那麼如何使用這些工具呢,又有哪些需要注意的呢?

有哪些可用的工具?

一些最受歡迎的 LLM 工具包括 Elicit、Consensus 和 You,它們提供了多種加快文獻審查的方法。

當使用者將研究問題輸入 Elicit 時,它會返回相關論文列表及其主要發現的摘要。使用者可以針對特定論文提出進一步的問題,或按期刊或研究型別進行篩選。

Consensus 幫助研究人員瞭解某一主題的各種科學資訊。使用者可以輸入諸如「氯胺酮可以治療抑鬱症嗎?」之類的問題,該工具會提供「共識計量表」,顯示科學共識所在。研究人員可以閱讀同意、不同意或不確定假設的論文摘要。

馬薩諸塞州波士頓共識組織的執行長 Eric Olson 表示,人工智慧工具並不能取代對論文的深入審閱,但它對於高層次的研究掃描很有用。

加利福尼亞州帕洛阿爾託的一家軟體開發公司 You 表示,You 是第一個將人工智慧搜尋與最新研究引文資料相結合的搜尋引擎。該工具為使用者提供了探索研究問題的不同方式,例如其「天才模式」以圖表形式提供答案。上個月,You 推出了一款「多人協作工具」,允許同事協作和分享自定義人工智慧聊天,從而自動執行特定任務,例如事實核查。

圖片

圖示:應用介面截圖。(來源:網路)

總部位於倫敦的研究分析公司 Clarivate 於 9 月釋出了一款人工智慧研究助手,讓使用者可以快速搜尋 Web of Science 資料庫。

Clarivate 表示,科學家可以輸入研究問題,檢視相關摘要、相關主題和引文圖,這些圖會顯示每項研究引用的論文,並幫助研究人員識別關鍵文獻。

儘管 Web of Science 上的論文都是英文的,但 Clarivate 的 AI 工具也能用不同的語言總結論文摘要。

Clarivate 駐倫敦的產品副總裁 Francesca Buckland 表示:「大型語言模型中嵌入的語言翻譯功能具有巨大的潛力,可以讓世界各地的科學文獻更加均衡。」

BioloGPT 是越來越多的特定主題 AI 工具之一,可以對生物學問題提供總結和深入的答案。

哪些工具適合哪些任務?

當被問及最佳的人工智慧搜尋引擎工具時,加拿大卡爾加里的流行病學家 Razia Aliani 說道:「我總是說,這取決於你真正想做什麼。」

當 Aliani 需要了解某個話題的共識或意見分歧時,她會傾向於使用「共識」。

Aliani 也在系統評價公司 Covidence 工作,她在審查大型資料庫時會使用其他 AI 工具。例如,她使用 Elicit 來微調她的研究興趣。在輸入初始研究問題後,Aliani 使用 Elicit 排除不相關的論文並深入研究更相關的論文。

Aliani 表示,人工智慧搜尋工具不僅可以節省時間,還可以幫助「提高工作質量、激發創造力,甚至找到減輕任務壓力的方法」。

圖片

圖示:Clarivate 的 AI 工具可生成引文圖,顯示每項研究引用的論文。(來源:網路)

Anna Mills 在加利福尼亞州舊金山的馬林學院教授入門寫作課程,其中包括研究過程課程。她說,向學生介紹這些工具很有吸引力,但她擔心這些工具可能會妨礙學生對學術研究的理解。

相反,她熱衷於教學生人工智慧搜尋工具如何犯錯,這樣他們就可以培養「批判性地評估這些人工智慧系統給他們提供的東西」的技能。

BiologGPT 的創始人 Conner Lambden 表示:「成為一名優秀的科學家需要對一切事物保持懷疑,包括你自己的方法。」

那麼不準確的答案和錯誤的資訊怎麼辦?

人們對主要人工智慧聊天機器人(如 ChatGPT)輸出的準確性表示擔憂,因為它可以「產生幻覺」產生虛假資訊並編造參考資料。

這導致人們對科學搜尋引擎產生了一些懷疑——使用者表示,研究人員應該謹慎行事。人工智慧研究工具面臨的常見錯誤包括編造統計資料、歪曲引用的論文以及基於這些工具的訓練系統的偏見。

瑞士洛桑大學的體育科學家 Alec Thomas 在使用人工智慧工具時遇到的問題,導致他放棄了使用這些工具。Thomas 以前很欣賞人工智慧搜尋工具,但在發現「一些非常嚴重的基本錯誤」後,他停止使用它們。

例如,在研究患有飲食失調的人參加體育運動會受到怎樣的影響時,人工智慧工具總結了一篇它認為相關的論文,但實際上「它與原始查詢無關」,他說,「我們不會相信一個已知會產生幻覺的人,那麼我們為什麼要相信人工智慧呢?」

開發人員如何解決不準確的答案?

有開發人員表示,他們已經實施了安全措施來提高準確性。加利福尼亞州奧克蘭 Elicit 公司的工程主管 James Brady 表示,公司非常重視準確性,並使用了多種安全系統來檢查答案中的錯誤。

Buckland 表示,Web of Science AI 工具具有「強大的保護措施」,可以防止包含欺詐和有問題的內容。她說,在 beta 測試期間,該團隊與大約 12,000 名研究人員合作,收集反饋意見。

儘管這樣的反饋可以改善使用者體驗,但 Olson 表示,這也可能會影響幻覺。人工智慧搜尋工具「接受過人類反饋的訓練,它們希望為人類提供良好的答案」,Olson 說,因此「它們會填補不存在的空白」。

印第安納州印第安納波利斯的生成式人工智慧研究員 Andrew Hoblitzell 透過一個名為 AI4All 的專案在大學授課,他認為人工智慧搜尋工具可以支援研究過程,前提是科學家驗證生成的資訊。「目前,這些工具應該以混合方式使用,而不是作為權威來源」。

相關內容:https://www.nature.com/articles/d41586-024-02942-0

相關文章