1月27日凌晨,阿里雲通義重磅開源支援100萬Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個尺寸,均在處理長文字任務中穩定超越GPT-4o-mini;同時開源推理框架,在處理百萬級別長文字輸入時可實現近7倍的提速。
百萬Tokens長文字,可換算成10本長篇小說、150小時演講稿或3萬行程式碼。兩個月前, Qwen2.5-Turbo 升級了百萬Tokens的上下文輸入能力,廣受開發者和企業歡迎。如今,開源社群可基於全新的 Qwen2.5-1M 系列模型,進行長篇小說或多篇學術論文的解析,或是探索倉庫級程式碼的分析和升級。
Qwen2.5-1M擁有優異的長文字處理能力。在上下文長度為100萬 Tokens 的大海撈針(Passkey Retrieval)任務中,Qwen2.5-1M 能夠準確地從 1M 長度的文件中檢索出隱藏資訊,僅有7B模型出現了少量錯誤。在RULER、LV-Eval等基準對複雜長上下文理解任務測試中,Qwen2.5-14B-Instruct-1M 模型不僅擊敗了自家閉源模型 Qwen2.5-Turbo,還穩定超越 GPT-4o-mini,為開發者提供了一個現有長上下文模型的優秀開源替代。
大模型的長文字訓練需要消耗大量的計算資源,通義團隊透過逐步擴充套件長度的方法,從預訓練到監督微調再到強化學習等多個階段,高效地將 Qwen2.5-1M 的上下文長度從 4K 擴充套件到 256K;再透過長度外推的技術,創新引入Dual Chunk Attention機制,在無需額外訓練的情況下,將上下文長度高效能地穩定擴充套件到1M,從而在較低成本下實現了 Qwen2.5-1M 模型。
同時,為了加快推理速度,通義團隊在vLLM推理引擎基礎上,引入基於Minference的稀疏注意力機制,並在分塊預填充、整合長度外推方案和稀疏性最佳化等多環節創新改進。基於這些改進的推理框架有效地加快了模型推理速度,在不同模型大小和 GPU 裝置上,處理 1M 長度輸入序列的預填充速度提升了 3.2 倍到 6.7 倍。
據瞭解,Qwen2.5-1M已經在魔搭社群ModelScope和HuggingFace等平臺開源,開發者可前往下載或直接體驗模型;相關推理框架也已在GitHub上開源,幫助開發者更高效地部署Qwen2.5-1M模型。開發者和企業也可透過阿里雲百鍊平臺呼叫 Qwen2.5-Turbo 模型API,或是透過全新的Qwen Chat平臺體驗模型效能及效果。
附連結:
演示Demo:https://www.modelscope.cn/studios/Qwen/Qwen2.5-1M-Demo
Modelscope:https://www.modelscope.cn/organization/Qwen
Huggingface:https://huggingface.co/Qwen
開源框架地址:https://github.com/QwenLM/vllm/tree/dev/dual-chunk-attn
Qwen Chat體驗:https://chat.qwenlm.ai/