composer:2-4倍加速神經網路訓練的演算法庫
Composer 是一個用 PyTorch 編寫的庫,使您能夠以更低的成本和更高的準確度更快地訓練神經網路。
已經實現了兩倍以上的加速方法,只需幾行程式碼即可應用於您的訓練迴圈,或與內建 Trainer 一起使用。
特點:
- 20 多種加速計算機視覺和語言建模訓練網路的方法。當 Composer 為您完成工作時,不要浪費時間嘗試複製研究論文。
- 一個易於使用的培訓師,其編寫的目的是儘可能提高效能,並整合了有效培訓的最佳實踐。
- 我們所有加速方法的功能形式,允許您將它們整合到您現有的訓練迴圈中。
- 強大、可重複的基線,讓您儘快開始。
Composer 可讓您訓練:
- ResNet-101 在 ImageNet 上的準確率在 1 小時 30 分鐘內達到 78.1%(AWS 上 49 美元),比基線快 3.5 倍,便宜 71%。
- ResNet-50 在 ImageNet 上的準確率在 1 小時 14 分鐘內達到 76.51%(AWS 上 40 美元),比基線快 2.9 倍,便宜 65%。
- 在 4 小時 27 分鐘內將 GPT-2 在 OpenWebText 上的困惑度提高到 24.11(AWS 上 145 美元),比基線快 1.7 倍,便宜 43%。
Composer 具有一個函式介面(類似於torch.nn.functional),您可以將其整合到您自己的訓練迴圈中,以及一個訓練器,它可以為您將高效的訓練演算法無縫整合到訓練迴圈中。
作者Jonathan Frankle的話:
Composer是我對彩票假說的研究的直接延續。
深度學習背後的數學並沒有什麼神聖的東西。從根本上改變數學是完全可以的(比如刪除很多權重)。你會得到一個與之不同的網路,但這並不意味著原來的網路是 "正確 "的。如果改變數學就能得到一個同樣好的網路(例如,同樣的準確性),但速度更快,這就是勝利。
彩票假說是一個例子,說明如果你願意打破深度學習背後的數學,就有可能實現。Composer有幾十種這樣做的技術,並有相應的速度提升。
編輯:我是Jonathan Frankle,我寫了《彩票假說》的論文,我是Mosaic(Composer背後的人)的首席科學家。顯然是即興的AMA--我將在這裡呆上一整天,幫助人們瞭解我們在Composer方面的工作!
相關文章
- 3.3 神經網路的訓練神經網路
- 訓練自己的Android TensorFlow神經網路Android神經網路
- 用神經網路測量訓練集的半衰期神經網路
- 如何應對訓練的神經網路不工作?神經網路
- 使用tf.estimator.Estimator訓練神經網路神經網路
- umich cv-5-1 神經網路訓練1神經網路
- umich cv-5-2 神經網路訓練2神經網路
- Batch Normalization: 如何更快地訓練深度神經網路BATORM神經網路
- 從零開始:教你如何訓練神經網路神經網路
- 訓練神經網路時如何確定batch size?神經網路BAT
- 機器學習之訓練神經網路:最佳做法機器學習神經網路
- 【python實現卷積神經網路】開始訓練Python卷積神經網路
- 神經網路訓練的三個基本概念Epoch, Batch, Iteration神經網路BAT
- 當前訓練神經網路最快的方式:AdamW優化演算法+超級收斂神經網路優化演算法
- 深度神經網路的壓縮與加速神經網路
- 如何入門Pytorch之四:搭建神經網路訓練MNISTPyTorch神經網路
- 面向統一的AI神經網路架構和預訓練方法AI神經網路架構
- 深度學習與CV教程(6) | 神經網路訓練技巧 (上)深度學習神經網路
- 迴圈神經網路之embedding,padding,模型構建與訓練神經網路padding模型
- 神經網路之反向傳播訓練(8行程式碼)神經網路反向傳播行程
- 關於訓練神經網路的諸多技巧Tricks(完全總結版)神經網路
- 圖神經網路GNN 庫,液體神經網路LNN/LFM神經網路GNN
- 訓練效能提升2-4倍!京東攜SparkGBM成果亮相Spark Summit 2018SparkMIT
- 使用人工神經網路訓練手寫數字識別模型神經網路模型
- 在Python中使用OpenCV訓練神經網路來檢測手勢!PythonOpenCV神經網路
- Yelp訓練了一個神經網路來debug,然後就被這個AI刪庫了神經網路AI
- 深度神經網路的分散式訓練概述:常用方法和技巧全面總結神經網路分散式
- 比DGL快14倍:PyTorch圖神經網路庫PyG上線了PyTorch神經網路
- 送你9個快速使用Pytorch訓練解決神經網路的技巧(附程式碼)PyTorch神經網路
- 谷歌力作:神經網路訓練中的Batch依賴性很煩?那就消了它!谷歌神經網路BAT
- ICLR 2024 Oral|用巧妙的「傳送」技巧,讓神經網路的訓練更加高效ICLR神經網路
- 你也可以訓練超大神經網路!谷歌開源GPipe庫神經網路谷歌
- 迴圈神經網路設計同樣可以使用預訓練詞“嵌入”神經網路
- 谷歌開源Neural Tangents:簡單快速訓練無限寬度神經網路谷歌神經網路
- 神經網路NN演算法Nerual Networks神經網路演算法
- 神經網路:numpy實現神經網路框架神經網路框架
- 神經網路神經網路
- 支援Transformer全流程訓練加速,加速3倍!位元組跳動LightSeq上新ORM