通義千問GPT-4級主力模型降價97%,1塊錢200萬tokens

新闻助手發表於2024-05-21

5月21日,阿里雲丟擲重磅炸彈:通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當於5本《新華字典》的文字量。這款模型最高支援1千萬tokens長文字輸入,降價後約為GPT-4價格的1/400,擊穿全球底價。

通義千問GPT-4級主力模型降價97%,1塊錢200萬tokens

Qwen-Long是通義千問的長文字增強版模型,效能對標GPT-4,上下文長度最高達1千萬。除了輸入價格降至0.0005元/千tokens,Qwen-Long輸出價格也直降90%至0.002元/千tokens。相比之下,國內外廠商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens輸入價格分別為0.22元、0.025元、0.022元及0.12元,均遠高於Qwen-long。

通義千問GPT-4級主力模型降價97%,1塊錢200萬tokens

通義千問本次降價共覆蓋9款商業化及開源系列模型。不久前釋出的通義千問旗艦款大模型Qwen-Max,API輸入價格降至0.04元/千tokens,降幅達67%。Qwen-Max是目前業界表現最好的中文大模型,在權威基準OpenCompass上效能追平GPT-4-Turbo,並在大模型競技場Chatbot Arena中躋身全球前15。

通義千問GPT-4級主力模型降價97%,1塊錢200萬tokens

不久前,OpenAI的Sam Altman轉發了Chatbot Arena榜單來印證GPT-4o的能力,其中全球排名前20的模型中,僅有的三款中國模型都是通義千問出品。

通義千問GPT-4級主力模型降價97%,1塊錢200萬tokens

業界普遍認為,隨著大模型效能逐漸提升,AI應用創新正進入密集探索期,但推理成本過高依然是制約大模型規模化應用的關鍵因素。

在武漢AI智領者峰會現場,阿里雲智慧集團資深副總裁、公共雲事業部總裁劉偉光表示:“作為中國第一大雲端計算公司,阿里雲這次大幅降低大模型推理價格,就是希望加速AI應用的爆發。我們預計未來大模型API的呼叫量會有成千上萬倍的增長。”

劉偉光認為,不管是開源模型還是商業化模型,公共雲+API將成為企業使用大模型的主流方式,主要有三點原因:

一是公共雲的技術紅利和規模效應,帶來巨大的成本和效能優勢。阿里雲可以從模型自身和AI基礎設施兩個層面不斷最佳化,追求極致的推理成本和效能。阿里雲基於自研的異構晶片互聯、高效能網路HPN7.0、高效能儲存CPFS、人工智慧平臺PAI等核心技術和產品,構建了極致彈性的AI算力排程系統,結合百鍊分散式推理加速引擎,大幅壓縮了模型推理成本,並加快模型推理速度。

即便是同樣的開源模型,在公共雲上的呼叫價格也遠遠低於私有化部署。以使用Qwen-72B開源模型、每月1億tokens用量為例,在阿里雲百鍊上直接呼叫API每月僅需600元,私有化部署的成本平均每月超1萬元。

二是雲上更方便進行多模型呼叫,並提供企業級的資料安全保障。阿里雲可以為每個企業提供專屬VPC環境,做到計算隔離、儲存隔離、網路隔離、資料加密,充分保障資料安全。目前,阿里雲已主導或深度參與10多項大模型安全相關國際國內技術標準的制定。

三是雲廠商天然的開放性,能為開發者提供最豐富的模型和工具鏈。阿里雲百鍊平臺上匯聚通義、百川、ChatGLM、Llama系列等上百款國內外優質模型,內建大模型定製與應用開發工具鏈,開發者可以便捷地測試比較不同模型,開發專屬大模型,並輕鬆搭建RAG等應用。從選模型、調模型、搭應用到對外服務,一站式搞定。

相關文章