編輯丨toileter
AI 大模型的演變隨著時間呈現出井噴的增長趨勢,幾乎每週甚至於沒幾天就會有全新的 AI 工具被推出,引來蜂擁而至的研究人員去嘗試它們。
現如今花樣百出的 AI 工具,讓研究者們無論在何種需求上都能自行配置最得心應手的模型,每個大型語言模型 (LLM) 都得以適配不同的任務需要。
總部位於華盛頓州西雅圖的 Fred Hutchinson 癌症中心的資料科學家 Carrie Wright 表示,儘管 LLM 會產生類似人類的反應,但它們仍然太容易出錯,無法單獨使用。
為了協助各位研究同僚,該中心的科研人員與 Nature 分享了他們目前為止最喜歡使用的 LLM 模型。
O3-mini(推理者)
總部位於加利福尼亞州舊金山的 OpenAI 於 2022 年透過其免費使用的 ChatGPT 機器人向世界介紹了 LLM。去年 9 月,該公司自那時以來最重大的進步是 OpenAI 的 o1“推理模型”讓科學家們驚歎不已,隨後在 12 月推出了更先進的 o3。
科學家們主要使用該機器人來查詢資訊或用作寫作助手,例如起草摘要,但更新的模型正在拓寬該技術的潛在用途。這兩種推理模型都比單獨的 LLM 工作得更慢,因為它們都經過訓練,可以逐步回答查詢。這個旨在模擬人類推理的「思維鏈」過程幫助他們打破了科學和數學的嚴格基準。
1 月 20 日,在杭州的 DeepSeek 推出了一款極具競爭力的推理器後,OpenAI 推出了一系列新工具作為回應。其中包括快速的 o3-mini,一個對註冊聊天機器人使用者免費的推理器。
英國牛津大學數學家兼人工智慧研究員 Simon Frieder 認為,當涉及到在新的數學證明中挑選不熟悉的概念等任務時,o3-mini 做得「非常好」。但他說,即使是最好的模型「仍然無法與數學家相媲美」。
DeepSeek(全能型)
DeepSeek-R1 於上個月推出,其功能與 o1 相當,但可透過 API 獲得,成本僅為 o1 的一小部分。
它還與 OpenAI 的模型不同,因為它是開源的,這意味著雖然它的訓練資料尚未釋出,但任何人都可以下載底層模型並根據他們的特定研究專案進行定製。
執行完整模型需要訪問強大的計算晶片,而許多學者都缺乏這一點。但是,香港中文大學(深圳)的電腦科學家 Benyou Wang 等研究人員正在建立可以在單臺機器上執行或訓練的版本。近期多種不同版本的本地版已經允許使用者自行部署。
DeepSeek-R1 有一些缺點。它有一個特別長的「思考 」過程,這減慢了它的速度,使其在查詢資訊或頭腦風暴時反應速度較慢。
Llama(主力)
長期以來,Llama 一直是研究界的首選 LLM。2023 年,Meta AI 在加利福尼亞州門洛帕克首次釋出了一系列開放重量級模型,僅透過開放科學平臺 Hugging Face 的下載量就已超過 6 億次。
研究人員認為,在處理專有或受保護的資料時,能夠在個人或機構伺服器上執行 LLM 至關重要,以避免敏感資訊被反饋給其他使用者或開發人員。
研究人員以 Llama 的模型為基礎,製作了預測材料晶體結構的 LLM,並模擬量子計算機的輸出。北卡羅來納大學教堂山分校 (University of North Carolina at Chapel Hill) 的機器學習科學家 Tianlong Chen 表示,Llama 非常適合模擬量子計算機,因為它相對容易適應專門的量子語言。
但 Llama 需要使用者請求訪問它的許可權,這對某些人來說是一個小摩擦點。因此,其他開放模型,例如由西雅圖艾倫人工智慧研究所開發的 OLMo,或由總部位於杭州的中國公司阿里雲構建的 Qwen,現在通常是研究的首選。DeepSeek 的高效底層 V3 模型也是構建科學模型的競爭對手基礎。
此外,還有更多可供研究者使用的模型與架構。對此有需求的讀者可以前往此文以獲取更詳細的推薦。
原文連結:https://www.nature.com/articles/d41586-025-00437-0