BERT 模型壓縮方法
BERT 模型壓縮方法
壓縮方法
1、剪枝——即訓練後從網路中去掉不必要的部分。
這包括權重大小剪枝、注意力頭剪枝、網路層以及其他部分的剪枝等。還有一些方法也透過在訓練期間採用正則化的方式來提升剪枝能力(layer dropout)。
2、權重因子分解——透過將引數矩陣分解成兩個較小矩陣的乘積來逼近原始引數矩陣。
這給矩陣施加了低秩約束。權重因子分解既可以應用於輸入嵌入層(這節省了大量磁碟記憶體),也可以應用於前饋/自注意力層的引數(為了提高速度)。
3、知識蒸餾——又名「Student Teacher」。
在預訓練/下游資料上從頭開始訓練一個小得多的 Transformer,正常情況下,這可能會失敗,但是由於未知的原因,利用完整大小的模型中的軟標籤可以改進最佳化。
一些方法還將BERT 蒸餾成如LSTMS 等其他各種推理速度更快的架構。另外還有一些其他方法不僅在輸出上,還在權重矩陣和隱藏的啟用層上對 Teacher 知識進行更深入的挖掘。
4、權重共享——模型中的一些權重與模型中的其他引數共享相同的值。
例如,ALBERT 對 BERT 中的每個自注意力層使用相同的權重矩陣。
5、量化——截斷浮點數,使其僅使用幾個位元(這會導致舍入誤差)。
模型可以在訓練期間,也可以在訓練之後學習量化值。
6、預訓練和下游任務——一些方法僅僅在涉及到特定的下游任務時才壓縮 BERT,也有一些方法以任務無關的方式來壓縮 BERT。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2678059/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 深度學習模型壓縮方法概述深度學習模型
- JS壓縮方法及批量壓縮JS
- 模型壓縮-模型蒸餾、模型剪枝、模型量化模型
- yolov5--4.0--模型壓縮YOLO模型
- 模型壓縮之 BinaryNet模型
- Linux下常用壓縮格式的壓縮與解壓方法Linux
- 分卷壓縮怎麼解壓 快速解壓電腦分卷壓縮檔案方法
- Linux下常用壓縮格式的壓縮與解壓方法---轉載Linux
- iOS 圖片壓縮方法iOS
- unix和linux下常用壓縮格式的壓縮與解壓方法(轉)Linux
- 當前深度神經網路模型壓縮和加速都有哪些方法?神經網路模型
- Linux各種壓縮與解壓方法Linux
- 模型壓縮-剪枝演算法詳解模型演算法
- Nginx網路壓縮 CSS壓縮 圖片壓縮 JSON壓縮NginxCSSJSON
- 知識蒸餾、輕量化模型架構、剪枝…幾種深度學習模型壓縮方法模型架構深度學習
- JAVA壓縮和解壓縮Java
- zip壓縮和解壓縮
- 電腦怎麼壓縮檔案 檔案壓縮方法詳解
- linux壓縮解壓縮Linux
- 字串的壓縮和解壓縮字串
- 檔案壓縮和解壓縮
- Word檔案太大怎麼壓縮,分享壓縮Word的簡單方法
- 怎麼把影片壓縮?實用又簡單的壓縮影片方法
- 8.3 BERT模型介紹模型
- Apache開啟GZIP壓縮功能方法Apache
- aix 下壓縮與解壓縮AI
- linux壓縮和解壓縮命令Linux
- tar 分卷壓縮&解壓縮命令
- AIX 上壓縮與解壓縮AI
- SAPCAR 壓縮解壓軟體的使用方法(zt)PCA
- 壓縮大型語言模型(LLMs):縮小10倍、效能保持不變模型
- CNN 模型壓縮與加速演算法綜述CNN模型演算法
- EXP直接匯出壓縮問津,IMP直接匯入壓縮檔案的方法
- linux下壓縮解壓縮命令Linux
- linux壓縮和解壓縮命令整理Linux
- 簡單的zip壓縮和解壓縮
- Linux壓縮及解壓縮命令Linux
- linux壓縮和解壓縮命令大全Linux