11月20日訊息,最新的Qwen2.5-Turbo已在阿里雲百鍊上線,該模型支援100萬超長上下文,相當於100萬個英文單詞或150萬個漢字,在多個長文字評測集上的效能表現超越GPT-4。即日起,所有使用者可在阿里雲百鍊呼叫Qwen2.5-Turbo API,百萬tokens僅需0.3元。
全新的Qwen2.5-Turbo在1M長度的超長文字檢索(Passkey Retrieval)任務中的準確率可達到100%,在長文字評測集RULER上獲得93.1分,超越GPT-4;在LV-Eval、LongBench-Chat等更加接近真實場景的長文字任務中,Qwen2.5-Turbo在多數維度超越了GPT-4o-mini;此外,在MMU、LiveBench等短文字基準上Qwen2.5-Turbo的表現也非常優秀,在大部分任務上的表現顯著超越之前上下文長度為1M tokens的開源模型。
Qwen2.5-Turbo在長文字、短文字任務評測集上均表現優秀
在推理速度方面,通義千問團隊利用稀疏注意力機制將注意力部分的計算量壓縮了約12.5倍,將處理1M tokens上下文時的首字返回時間從4.9分鐘降低到68秒,實現了4.3倍的速度提升。
Qwen2.5-Turbo推理速度可提升4.3倍
Qwen2.5-Turbo可應用於長篇小說深入理解、倉庫級別程式碼助手、多篇論文閱讀等場景,可一次性處理10本長篇小說,150小時的演講稿,3萬行程式碼。針對該模型,阿里雲百鍊免費為使用者贈送1000萬tokens額度。
該團隊表示,長文字任務處理依然存在諸多挑戰,未來將進一步探索長序列人類偏好對齊,最佳化推理效率以減少運算時間,並繼續研發更大、更強的長文字模型。
據介紹,阿里雲百鍊已上線Qwen、Llama、Flux等超200款國內外主流開源和閉源大模型,使用者可選擇直接呼叫、訓練微調或打造RAG應用。目前,一汽、金山、哈囉集團、國家天文臺等超30萬企業和機構在使用阿里雲百鍊。