Mistral開源8X22B大模型,OpenAI更新GPT-4 Turbo視覺,都在欺負谷歌

机器之心發表於2024-04-10
真有圍剿 Google 的態勢啊!

在谷歌昨晚 Cloud Next 大會進行一系列重大發布時,你們都來搶熱度:前有 OpenAI 更新 GPT-4 Turbo,後有 Mistral 開源 8X22B 的超大模型。

谷歌內心:南村群童欺我老無力。

圖片

第二大開源模型:Mixtral 8X22B

今年 1 月,Mistral AI 公佈了 Mixtral 8x7B 的技術細節,並推出了 Mixtral 8x7B – Instruct 聊天模型。該模型的效能在人類評估基準上明顯超過了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。

短短 3 個月後,Mistral AI 開源了 Mistral 8X22B 模型,為開源社群帶來了又一個效能強勁的大模型。
圖片
有人已經檢視了 Mistral 8X22B 模型的細節,模型檔案大小約為 262 GB。
圖片
由此,Mistral 8X22B 僅次於 xAI 此前推出的 Grok-1(引數量為 3140 億),成為迄今為止第二大開源模型。
圖片
還有人驚呼,MoE 圈子又來了個「大傢伙」。MoE 即專家混合模型,此前 Grok-1 也為 MoE 模型。
圖片
GPT-4 Turbo 視覺功能新升級

另一邊,OpenAI 宣佈 GPT-4 Turbo with Vision 現在可以透過 API 使用了,並且 Vision 功能也可以使用 JSON 模式和函式呼叫了。
圖片
下面為 OpenAI 官網細節。
圖片
雖然如此,各路網友對 OpenAI 的小修小補「並不感冒」。
圖片
圖片
參考連結:
https://platform.openai.com/docs/models/continuous-model-upgrades

相關文章