追平滿血版o1的國產多模態模型終於來了!訓練細節全部公開

机器之心發表於2025-01-21
春節前最後一週,能媲美 Open AI 滿血版 o1(Full Version,而非 preview)的模型終於出現了!

剛剛,月之暗面公佈了他們的 Kimi k 系列模型最新版本 ——k1.5 多模態思考模型。新模型在數學、程式碼、多模態推理能力等方面全面對標 Open AI 滿血版 o1,而且是 OpenAI 之外首個多模態 o1。尤其是 kimi-k1.5-short,成為 SOTA short cot 模型,並大幅領先 GPT-4o 和 Claude 3.5 Sonnet(提升幅度高達 550%)
圖片
這是 Open AI 之外,首次有模型在數學和程式碼能力上達到滿血 o1,月之暗面也是國內第一個達到該水平的 AI 公司。在此之前,部分模型在各類 Benchmark 上可以達到 50 分、60 分的水平(相當於 o1-preview),而 o1 滿血版是 80 分、90 分水平,Kimi k1.5 的成績令人眼前一亮。

這一切是怎麼做到的呢?在 Kimi 技術團隊同步釋出的技術報告中,我們可以看到他們在新技術正規化下的模型訓練技術探索之路。
圖片
  • 技術報告:Kimi k1.5:藉助大語言模型實現強化學習的 Scaling
  • 報告連結:https://github.com/MoonshotAI/kimi-k1.5

這種技術透明度在當前競爭激烈的大模型市場上並不多見。在談及為什麼要這麼做時,月之暗面表示,「因為我們意識到,AGI 之旅才剛剛開始。我們想讓更多技術人才瞭解我們在做的事情,加入我們一起做到更多」。

Kimi k1.5 多項測試,全部 SOTA

從技術報告來看,Kimi k1.5 多模態推理模型實現了 SOTA (state-of-the-art)級別的推理和通用能力,具體而言:
在 long-CoT 模式下,Kimi k1.5 在數學、程式碼及多模態推理能力上,達到長思考 SOTA 模型 OpenAI o1 正式版的水平。Kimi k1.5 在 AIME 上達到 77.5 分,在 MATH 500 上達到 96.2 分,在 Codeforces 上達到 94 百分位,在 MathVista 上達到 74.9 分。

這應該是全球範圍內,OpenAI 之外的公司首次實現 o1 滿血版效能。此前的模型只能達到 o1-preview 或 o1-mini 的推理能力。
圖片
在 short-CoT 模式下,Kimi k1.5 在數學、程式碼、視覺多模態和通用能力上,也達到了全球範圍內短思考 SOTA 模型 ,並大幅領先 GPT-4o 和 Claude 3.5 Sonnet 的水平。比如,Kimi k1.5 在 AIME 上達到 60.8 分,MATH500 上達到 94.6 分,LiveCodeBench 上達到 47.3 分。
圖片
不僅如此,從全球前沿大模型數學競賽和程式設計競賽基準測試來看,Kimi k1.5 的表現也相當不錯,處於全球第一梯隊,而這兩項測試代表了人類智商巔峰。
圖片
總之,從 Benchmark 資料來看,k1.5 的推理能力實現了很大提升,可以幫助我們解鎖更難的程式碼、數學、生活等問題。

Kimi k1.5 是怎麼練成的?

隨著模型尺寸逐漸增大,預訓練階段引數 scaling up 帶來的邊際收益開始遞減,如果想要深度提升模型推理能力和長程問題能力,基於強化學習的 Post-Training 將會成為下一個突破點 [1],因為 scaling 強化學習為人工智慧的持續進步開闢了新的維度,它使得大語言模型能夠透過帶有獎勵的探索學習來擴充套件其訓練資料,從而也實現計算規模的擴充套件。

大的方向非常明確,然而,此前發表的研究工作尚未產生具有競爭力的結果。

有鑑於此,Kimi 技術團隊在 Kimi k1.5 的訓練實踐中全面探索了 RL 訓練技術、多模態資料配方和基礎設施最佳化。

難得的是,他們探索出的 RL 框架簡單、有效,無需依賴蒙特卡洛樹搜尋、價值函式和過程獎勵模型等更復雜的技術也能取得優異的效能。

此外,他們還提出了有效的 long2short 技術,利用 Long-CoT 技術來改進 Short-CoT 模型,使得模型在短鏈思維推理方面取得了最佳成果。

簡單、有效的 RL 框架

Kimi 技術團隊設計的簡單而有效的 RL 框架離不開兩個關鍵要素:長上下文 scaling 和改進的策略最佳化

先說長上下文 scaling。他們將強化學習的上下文視窗 scale 到 128k,並觀察到隨著上下文長度的增加,模型效能持續改善。新方法背後的一個關鍵理念是使用 partial rollout 來提高訓練效率 —— 即透過重用大量以前的軌跡來取樣新的軌跡,避免從頭重新生成新軌跡的成本。技術團隊的觀察表明,上下文長度是大語言模型強化學習持續 scaling 的一個關鍵維度。

再來看策略最佳化的改進。他們推匯出了一個具有 long-CoT 的強化學習公式,並採用線上映象下降法的變體來實現穩健的策略最佳化。透過有效的取樣策略、長度懲罰和資料配方的最佳化,他們進一步改進了該演算法。
圖片
透過將這兩個關鍵要素結合,Kimi 技術團隊建立了一個用於 LLM 學習的簡化強化學習框架。由於該框架能夠 scale 上下文長度,學習到的 CoT 展現出規劃、反思和糾正的特性。增加的上下文長度具有增加搜尋步驟數量的效果。因此,他們表明無需依賴蒙特卡洛樹搜尋、價值函式和過程獎勵模型等更復雜的技術也能實現強大的效能。

此外,他們的模型還在文字和視覺資料上進行了聯合訓練,具備對這兩種模態進行聯合推理的能力。

long2short 技術

儘管 long-CoT 模型在效能上表現出色,但與標準的 short-CoT LLM 相比,它在測試時消耗的 token 數量更多。然而,Kimi 技術團隊發現將 long-CoT 模型的思維先驗遷移到 short-CoT 模型中是可能的,從而在有限的測試 token 預算下提升效能。

他們提出了幾種解決這一 long2short 問題的方法,包括模型融合、最短拒絕取樣、DPO 以及 long2short RL。以下是這些方法的詳細描述:

模型融合。團隊人員發現模型融合(Model Merging)有助於保持模型的泛化能力。他們還發現,在融合 long-CoT 模型和 short-CoT 模型時,模型融合也能有效提升 token 效率。這種方法透過將 long-CoT 模型與 short-CoT 模型結合,從而在不進行訓練的情況下獲得一個新模型。具體來說,他們透過簡單地平均兩個模型的權重來實現融合。

最短拒絕取樣。研究者觀察到,模型在回答相同問題時生成的響應長度存在較大差異。基於此,他們設計了最短拒絕取樣(Shortest Rejection Sampling)方法。該方法對同一個問題取樣 n 次(實驗中,n=8),並選擇最短的正確響應進行監督微調。

DPO。與最短拒絕取樣類似,團隊人員利用 Long CoT 模型生成多個響應樣本。並選擇最短的正確解決方案作為正樣本,而較長的響應則被視為負樣本,包括錯誤的較長響應和正確的較長響應。這些正負樣本對構成了用於 DPO 訓練的成對偏好資料。

Long2short RL。在標準的 RL 訓練階段之後,團隊人員選擇一個在效能和 token 效率之間達到最佳平衡的模型作為基礎模型,並進行單獨的 long2short RL 訓練階段。在這個第二階段中,他們還應用了長度懲罰機制,從而顯著減少最大 rollout 長度,以進一步懲罰那些超出期望長度但可能正確的響應。

除了以上這些,Kimi k1.5 的技術報告還透露了很多資訊。感興趣的讀者可以去閱讀原文。

2025:加速升級 k 系列強化學習模型

OpenAI 於 2024 年 5 月、9 月推出的 GPT-4o、o1 兩個模型,分別代表了多模態理解、強化學習兩條技術路線。在這兩條路線上,國內 AI 公司都在陸續發力,並在最近展開了激烈競爭。如今,Kimi 模型在能力上最接近 o1,這讓外界對這家公司在 2025 年的表現充滿了期待。

月之暗面表示,2025 年,他們會繼續加速升級 k 系列強化學習模型,帶來更多模態、更多領域的能力和更強的通用能力。
圖片
我們也期待新模型的早日上線!

參考連結:[1] https://mp.weixin.qq.com/s/FXGdJA8OyZvLl89rXJiyAQ

相關文章