BERT 模型壓縮方法
BERT 模型壓縮方法
壓縮方法
1、剪枝——即訓練後從網路中去掉不必要的部分。
這包括權重大小剪枝、注意力頭剪枝、網路層以及其他部分的剪枝等。還有一些方法也透過在訓練期間採用正則化的方式來提升剪枝能力(layer dropout)。
2、權重因子分解——透過將引數矩陣分解成兩個較小矩陣的乘積來逼近原始引數矩陣。
這給矩陣施加了低秩約束。權重因子分解既可以應用於輸入嵌入層(這節省了大量磁碟記憶體),也可以應用於前饋/自注意力層的引數(為了提高速度)。
3、知識蒸餾——又名「Student Teacher」。
在預訓練/下游資料上從頭開始訓練一個小得多的 Transformer,正常情況下,這可能會失敗,但是由於未知的原因,利用完整大小的模型中的軟標籤可以改進最佳化。
一些方法還將BERT 蒸餾成如LSTMS 等其他各種推理速度更快的架構。另外還有一些其他方法不僅在輸出上,還在權重矩陣和隱藏的啟用層上對 Teacher 知識進行更深入的挖掘。
4、權重共享——模型中的一些權重與模型中的其他引數共享相同的值。
例如,ALBERT 對 BERT 中的每個自注意力層使用相同的權重矩陣。
5、量化——截斷浮點數,使其僅使用幾個位元(這會導致舍入誤差)。
模型可以在訓練期間,也可以在訓練之後學習量化值。
6、預訓練和下游任務——一些方法僅僅在涉及到特定的下游任務時才壓縮 BERT,也有一些方法以任務無關的方式來壓縮 BERT。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2678059/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 深度學習模型壓縮方法概述深度學習模型
- JS壓縮方法及批量壓縮JS
- 模型壓縮-模型蒸餾、模型剪枝、模型量化模型
- gltf-pipeline 壓縮glb模型模型
- yolov5--4.0--模型壓縮YOLO模型
- 分卷壓縮怎麼解壓 快速解壓電腦分卷壓縮檔案方法
- iOS 圖片壓縮方法iOS
- Nginx網路壓縮 CSS壓縮 圖片壓縮 JSON壓縮NginxCSSJSON
- 當前深度神經網路模型壓縮和加速都有哪些方法?神經網路模型
- 電腦怎麼壓縮檔案 檔案壓縮方法詳解
- 知識蒸餾、輕量化模型架構、剪枝…幾種深度學習模型壓縮方法模型架構深度學習
- 模型壓縮-剪枝演算法詳解模型演算法
- Word檔案太大怎麼壓縮,分享壓縮Word的簡單方法
- 怎麼把影片壓縮?實用又簡單的壓縮影片方法
- 檔案壓縮和解壓縮
- Apache開啟GZIP壓縮功能方法Apache
- 大模型原理:遞迴、壓縮和模式匹配大模型遞迴模式
- Python實現壓縮和解壓縮Python
- linux下壓縮解壓縮命令Linux
- linux壓縮和解壓縮命令整理Linux
- TensorFlow推出模型優化工具包,可將模型壓縮75%模型優化
- 壓縮大型語言模型(LLMs):縮小10倍、效能保持不變模型
- CNN 模型壓縮與加速演算法綜述CNN模型演算法
- tar.gz壓縮命令使用方法
- Linux tar分卷壓縮與解壓縮Linux
- 8.3 BERT模型介紹模型
- CentOS 壓縮解壓CentOS
- Linux壓縮解壓Linux
- TensorFlow推出模型最佳化工具包,可將模型壓縮75%模型
- linux 高效壓縮工具之xz的壓縮解壓使用Linux
- Linux中檔案的壓縮和解壓縮Linux
- 綜述論文:當前深度神經網路模型壓縮和加速方法速覽神經網路模型
- 大模型應用曙光 - 10X壓縮技術大模型
- MySQL實現MYISAM表批次壓縮的方法MySql
- Gzipped 壓縮
- 打包/壓縮
- linux分卷壓縮解壓Linux
- linuxtar解壓和壓縮Linux