大模型Grok-1.5釋出

banq發表於2024-03-30


Grok-1.5 最新模型能夠進行長上下文理解和高階推理。具有改進的推理能力和 128,000 個令牌的上下文長度。

能力與推理
Grok-1.5 最顯著的改進之一是其在編碼和數學相關任務中的效能。在我們的測試中,Grok-1.5 在 MATH 基準上取得了 50.6% 的成績,在 GSM8K 基準上取得了 90% 的成績,這兩個數學基準涵蓋了廣泛的小學到高中的競賽問題。此外,它在評估程式碼生成和解決問題能力的 HumanEval 基準測試中得分為 74.1%。

長上下文理解
Grok-1.5 中的一個新功能是能夠在其上下文視窗內處理多達 128K 個令牌的長上下文。這使得 Grok 的記憶體容量增加到之前上下文長度的 16 倍,從而能夠利用更長文件中的資訊。

此外,該模型可以處理更長、更復雜的提示,同時在上下文視窗擴充套件時仍然保持其指令跟蹤能力。在NIAH評估中,Grok-1.5展示了強大的檢索能力,可以在長度高達128K token的上下文中嵌入文字,實現完美的檢索結果。

Grok-1.5 基礎設施
在大規模 GPU 叢集上執行的尖端大型語言模型 (LLM) 研究需要強大而靈活的基礎設施。 Grok-1.5 構建在基於 JAX、Rust 和 Kubernetes 的自定義分散式訓練框架之上。該培訓堆疊使我們的團隊能夠以最小的努力構建想法原型並大規模培訓新架構。

 

相關文章