Mistral AI兩連發:7B數學推理專用、Mamba2架構程式碼大模型

机器之心發表於2024-07-17
網友很好奇,Mathstral能不能搞定「9.11和9.9誰大」這一問題。

昨天,AI圈竟然被「9.11和9.9誰大」這樣簡單的問題攻陷了,包括OpenAI GPT-4o、Google Gemini等在內的大語言模型都翻了車。圖片

圖片

這讓我們看到,大語言模型在處理一些數字問題時並不能像人類那樣理解並給出正確的答案。

對於數字以及複雜的數學問題,專用模型更術業有專攻。

今天,法國大模型獨角獸 Mistral AI 釋出了一個專注於數學推理和科學發現的7B大模型「Mathstral」,來解決需要複雜、多步驟邏輯推理的高階數學問題。

該模型基於 Mistral 7B 構建,支援的上下文視窗長度為32k,遵循的開源協議為Apache 2.0 license。

Mathstral在構建時追求出色的效能與速度權衡,這是 Mistral AI積極推廣的一種開發理念,尤其是微調功能。

圖片

同時,Mathstral是一個指令型模型,可以使用它或者對它進行微調。模型權重已經放在了HuggingFace上。

  • 模型權重:https://huggingface.co/mistralai/mathstral-7B-v0.1

下圖為 Mathstral 7B和Mistral 7B之間的MMLU效能差異(按學科劃分)。

Mathstral在各種行業標準基準上都達到其規模範圍內的 SOTA 推理效能。尤其是在MATH資料集上,它取得了 56.6%的透過率,在MMLU上取得了63.47%的透過率。

圖片

同時,Mathstral在MATH上的透過率(56.6%)比 Minerva 540B 高出 20% 以上。此外,Mathstral 在MATH 上以多數投票@64的成績得分為68.4%,使用獎勵模型的成績為 74.6%。

圖片

這一成績也讓網友好奇,Mathstral能不能搞定「9.11和9.9誰大」這一問題。

圖片

程式碼大模型:Codestral Mamba

圖片

  • 模型權重:https://huggingface.co/mistralai/mamba-codestral-7B-v0.1

與Mathstral 7B一同釋出的,還有一款專門用於程式碼生成的Codestral Mamba模型,使用的是Mamba2架構,同樣遵循Apache 2.0 license開源協議。這是一個指導模型,有70多億引數,研究者可以免費使用、修改和分發。

值得一提的是,Codestral Mamba是在Mamba作者Albert Gu、Tri Dao幫助下設計完成的。

一直以來,Transformer 架構撐起了AI領域的半壁江山,然而,與 Transformer 不同的是,Mamba 模型具有線性時間推理優勢,並且理論上能夠對無限長度的序列進行建模。該架構允許使用者廣泛地與模型互動,並且響應迅速,而不受輸入長度的限制。這種效率對於程式碼生成尤其重要 。

基準測試中,Codestral Mamba 在 HumanEval 測試中的表現優於競爭對手開源模型 CodeLlama 7B、CodeGemma-1.17B 和 DeepSeek。

圖片

Mistral 測試了該模型,該模型可以在 Mistral 的 la Plateforme API 上免費使用,可處理多達 256,000 個token的輸入——是 OpenAI 的 GPT-4o 的兩倍。

隨著Codestral Mamba釋出,就有網友在 VSCode中用起來了,很是絲滑。

圖片

參考連結:
https://mistral.ai/news/mathstral/
https://mistral.ai/news/codestral-mamba/

相關文章