Open main menu
IT人
單一作者論文,谷歌提出百萬專家Mixture,超越密集前饋、稀疏MoE
机器之心
發表於
2024-07-10
谷歌
釋放進一步擴充套件 Transformer 的潛力,同時還可以保持計算效率。
標準 Transformer 架構中的前饋(FFW)層會隨著隱藏層寬度的增加而導致計算成本和啟用記憶體的線性增加。在大
語言模型
(LLM)體量不斷增大的現在,稀疏混合專家(MoE)架構已成為解決此問題的可行方法,它將模型大小與計算成本分離開來。很多新興的 MoE 模型都可以實現相同體量之上,更好的效能與更強大的表現。
最近發現的細粒度 MoE 擴充套件定律表明,更高的粒度可帶來更好的效能。然而由於計算和最佳化方面的挑戰,現有的 MoE 模型僅限於低數量專家。
本週二,
Google
DeepMind
的新研究引入了一種
引數
高效的專家檢索機制,其利用乘積金鑰技術從一百萬個微型專家中進行稀疏檢索
。
連結:https://arxiv.org/abs/2407.04153
該方法嘗試透過用於路由的學習索引結構有效地串聯到大量微小專家,從而將計算成本與
引數
計數分離。與密集的 FFW、粗粒度 MoE 和產品金鑰儲存器 (PKM) 層相比,表現出卓越的效率。
這項工作引入了
引數
高效專家檢索(PEER) 架構(parameter efficient expert retrieval),利用產品金鑰(product key)檢索高效地路由到大量專家,將計算成本與
引數
量分離。這種設計在實驗中展示了卓越的計算效能水平,將其定位為用於擴充套件基礎模型的密集 FFW 層的競爭性替代方案。這項工作的主要貢獻是:
極端 MoE 設定的探索:與以前的 MoE 研究中對少數大型專家的關注不同,這項工作研究了眾多小型專家的未充分探索的情況。
用於路由的學習索引結構:首次證明學習索引結構可以有效地路由到超過一百萬個專家。
新的層設計:將產品金鑰路由與單
神經元
專家相結合,我們引入了 PEER 層,它可以擴充套件層容量而無需大量計算開銷。實證結果表明,與密集 FFW、粗粒度 MoE 和產品金鑰記憶體 (PKM) 層相比,其效率更高。
綜合消融研究:我們研究了 PEER 的不同設計選擇(例如專家數量、活動
引數
、頭數量和
查詢
批次
規範化
)對語言建模任務的影響。
方法介紹
本節中,研究者詳解了
引數
高效專家檢索 (PEER) 層,它一種混合專家架構,使用路由中的產品金鑰和單
神經元
MLP 作為專家。下圖 2 展示了 PEER 層內的計算過程。
PEER 層概覽
。從形式上看,PEER 層是一個函式 f : R^n → R^m,它由三部分組成:一個由 N 個專家組成的池 E := {e_i}^N_i=1,其中每個專家 e_i : R^n → R^m 與 f 共享相同的簽名;一組相應的 N 個產品金鑰 K := {k_i}^N_i=1 ⊂ R^d ;以及一個
查詢
網路 q : R^n → R^d,它將輸入向量 x ∈ R^n
對映
到
查詢
向量 q (x)。
令 T_k 表示 top-k 運算子
。給定輸入 x,首先檢索 k 個專家的子集,這些專家的相應產品鍵與
查詢
q (x) 具有最高的內積。
然後將非線性啟用(例如 softmax 或 sigmoid)應用於前 k 個專家的
查詢
鍵內積,以獲得路由分數。
最後透過對路由分數加權的專家輸出進行線性組合來計算輸出。
產品金鑰檢索
。由於研究者打算使用大量專家(N ≥ 10^6),單純計算公式 1 中的前 k 個索引可能成本非常高,因此應用了產品金鑰檢索技術。他們不使用 N 個獨立的 d 維向量作為金鑰 k_i,而是透過連線兩個獨立的 d/2 維子金鑰集(即 C, C ′ ⊂ R d/2) 中的向量來建立它們:
引數
高效專家和多頭檢索
。與其他 MoE 架構不同,這些架構通常將每個專家的隱藏層設定為與其他 FFW 層相同的大小。而在 PEER 中,每個專家 e_i 都是一個單例 MLP,換句話說,它只有一個帶有單個
神經元
的隱藏層:
研究者沒有改變單個專家的規模,而是使用了多頭檢索來調整 PEER 層的表達能力,這類似於 transformer 中的多頭
注意力機制
和 PKM 中的多頭記憶。
具體來說,他們使用 h 個獨立的
查詢
網路,每個網路計算自己的
查詢
並檢索一組單獨的 k 個專家。不過,不同的頭共享同一個專家池,具有相同的產品金鑰集。這 h 個頭的輸出簡單地總結如下:
為什麼要有大量的小專家
?給定的 MoE 層可以用三個超
引數
來表徵它:
引數
總數 P、每個 token 的活躍
引數
數量 P_active 和單個專家的大小 P_expert。Krajewski 等人 (2024) 表明,MoE 模型的 scaling law 具有以下形式:
對於 PEER,研究者透過設定 d_expert = 1 來使用盡可能最小的專家規模,啟用
神經元
的數量是檢索頭的數量乘以每個頭檢索到的專家數量:d_active = hk。因此,PEER 的粒度始終為 G = P_active/P_expert = d_active/d_expert = hk。
實驗結果
我們首先來看在語言建模資料集上的評估結果。
在根據 isoFLOP 曲線確定每種方法的計算最優模型後,研究者在以下幾個流行語言建模資料集上評估了這些預訓練模型的效能:
Curation Corpus
Lambada
Pile
Wikitext
預訓練資料集 C4
下表 1 展示了評估結果。研究者根據訓練期間使用的 FLOP 預算對模型進行了分組。可以看到,PEER 在這些語言建模資料集上的困惑度最低。
在消融實驗中,研究者改變了專家總數量。下圖 1 中 isoFLOP 曲線所示的模型都有超過一百萬個(1024^2 )專家。
研究者選擇了 isoFLOP 最優位置的模型,並改變了 PEER 層中的專家數量(N = 128^2、256^2、512^2、1024^2),同時保持活躍專家數量不變(h = 8,k = 16)。結果如下圖 3 (a) 所示。
可以看到,isoFLOP 曲線在具有 1024^2 個專家的 PEER 模型和相應的密集主幹之間進行
插值
,而無需用 PEER 層替換中間塊中的 FFW 層。這表明,只需增加專家數量就可以提高模型效能。
同時,研究者改變了活躍專家的數量。他們系統地改變了活躍專家的數量(hk = 32、64、128、256、512),同時保持專家總數不變(N = 1024^2)。對於給定的 hk,研究者則聯合改變 h 和 k 以確定最佳組合。下圖 3 (b) 繪製了關於頭數量 (h) 的 isoFLOP 曲線。
下表 2 列出了使用和不使用 BN 時不同數量專家的專家使用率和不均勻性。可以看到,即使對於 1M 個專家,專家使用率也接近 100%,並且使用 BN 可以使專家的利用率更加均衡,困惑度更低。這些發現證明了 PEER 模型在利用大量專家方面的有效性。
研究者還比較了有無 BN 的 isoFLOP 曲線。下圖 4 顯示,有 BN 的 PEER 模型通常可以實現較低的困惑度。雖然差異並不顯著,但在 isoFLOP 最優區域附近差異最為明顯。
作者介紹
PEER 研究只有一位作者 Xu He(Owen),他是 Google
DeepMind
研究科學家,2017 年博士畢業於荷蘭格羅寧根大學。
相關文章
超越標準 GNN !DeepMind、谷歌提出圖匹配網路| ICML最新論文
2019-05-08
GNN
谷歌
混合專家模型 (MoE) 詳解
2023-12-26
模型
單個4090可推理,2000億稀疏大模型「天工MoE」開源
2024-06-04
大模型
查論文作者的網站
2018-04-26
網站
論文專題
2024-04-08
想做大模型開發前,先來了解一下MoE
2024-03-04
大模型
深度學習一:深度前饋網路
2020-09-21
深度學習
科學家提出超越傳統機器學習的量子演算法
2018-03-28
機器學習
演算法
神經網路診斷皮膚癌超越人類專家?來自醫療界的這篇論文給出了證明
2018-05-29
神經網路
微軟讓MoE長出多個頭,大幅提升專家啟用率
2024-05-14
微軟
7500人蔘會,國內接收論文數量超越美國,ICCV 2019最佳論文揭曉
2019-10-29
騰訊混元大模型核心論文曝光:Scaling law、MoE、合成資料以及更多
2024-11-22
大模型
死磕論文前,不如先找齊一套好用的工具
2018-11-14
數字藏品火爆背後:平臺密集湧現 專家提醒風險
2022-04-08
On The Infinite 論 無 窮(一) 作者:希爾伯特
2019-12-13
近期有哪些值得讀的QA論文?| 專題論文解讀
2018-06-05
50年間,高水平論文數量排名前20的國家是怎樣變化的?
2018-10-18
演算法、系統和應用,三個視角全面讀懂混合專家(MoE)
2024-07-26
演算法
谷歌論文:使用深度強化學習的晶片佈局
2020-05-07
谷歌
強化學習
晶片
個人專案-論文查重
2024-09-15
個人專案:論文查重
2024-09-14
個人專案—論文查重
2024-09-12
Geoff Hinton:我反對谷歌軍事專案,論文評審機制正在阻礙創新
2018-12-15
谷歌
何愷明組又出神作!最新論文提出全景分割新方法
2019-01-11
CVPR 2024 | 谷歌提出OmniGlue:特徵匹配新工作
2024-05-27
谷歌
特徵
CSAO週年公益回饋,強大專家陣容,就在INSEC WORLD!
2020-11-23
NeurIPS 2018值得一讀的強化學習論文清單
2018-12-13
強化學習
論文撰寫心得(一)
2024-11-09
WACV 2021論文 | 愛奇藝提出,僅需一幀顏色圖即可完成線稿自動著色
2020-12-14
全面超越ViT,美團、浙大等提出視覺任務統一架構VisionLLAMA
2024-03-07
視覺
架構
重返谷歌的Transformer作者,開始掌管Gemini AI
2024-08-23
谷歌
ORM
AI
MOE pruning
2024-03-31
圖學習論文快訊 | 很多新方法提出,研究活躍度高!
2019-04-22
論文發表 | 美創&浙大二院合作論文在國家科技核心期刊發表
2022-11-07
【論文】軍事理論課程論文
2018-07-16
從前饋到反饋:解析迴圈神經網路(RNN)及其tricks
2018-07-26
神經網路
RNN
混合專家更有主見了,能感知多模態分情況行事,Meta提出模態感知型專家混合
2024-08-11
10.03.30專題 “《簡單之美》作者老倪談專案管理之道--複雜系統簡單化“
2019-02-07
專案管理