DeepMind丟掉了歸一化,讓影像識別訓練速度提升了8.7倍 | 已開源

量子位發表於2021-02-18
金磊 發自 凹非寺
量子位 報導 | 公眾號 QbitAI

大規模影像識別任務上,DeepMind的新方法火了。

不僅拿到了SOTA,訓練速度還提升了8.7倍之多!

DeepMind丟掉了歸一化,讓影像識別訓練速度提升了8.7倍 | 已開源

方法關鍵:去“批處理歸一化”

對於大多數影像識別模型來說,批處理歸一化(batch normalization)是非常重要的組成部分。

但與此同時,這樣的方式也存在一定的侷限性,那就是它存在許多並不重要的特徵。

雖然近期的一些研究在沒有歸一化的情況下,成功訓練了深度ResNet,但這些模型與最佳批處理歸一化網路的測試精度不相匹配。

而這便是DeepMind此次研究所要解決的問題——提出了一種自適應梯度剪裁 (AGC) 技術。

具體而言,這是一種叫做Normalizer-Free ResNet (NFNet)的新網路。

DeepMind丟掉了歸一化,讓影像識別訓練速度提升了8.7倍 | 已開源

整體來看,NFNet的整體結構如上圖所示。

以有無“transition塊”來劃分,可以再細分為2種情況。

DeepMind丟掉了歸一化,讓影像識別訓練速度提升了8.7倍 | 已開源

其中,它們的bottleneck ratio均設定為0.5,且在3 x 3的卷積中,無論通道的數量為多少,組寬都固定為128。

二者的區別在於skip path接收訊號的方式,左側的是在用β進行variance downscaling和縮放非線性之後;而右側則是在用β進行variance downscaling之前完成。

實驗結果

在實驗部分,DeepMind的研究人員,採用了與NFNet相關的7個模型做了對比實驗,分別是NFNet-F0至NFNet-F6。

不難看出,在各個模型的對比過程中,在Top-1精度方面均取得了最好結果。

值得一提的是,與EfficientNet-B7相比,訓練速度方面提升了8.7倍之多。

DeepMind丟掉了歸一化,讓影像識別訓練速度提升了8.7倍 | 已開源

此外,在對3億張標記影像進行大規模預訓練後,在ImageNet上還取得了89.2%的Top-1精度。

DeepMind丟掉了歸一化,讓影像識別訓練速度提升了8.7倍 | 已開源

最後,對於這項研究的程式碼,也已在GitHub上開源。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69971123/viewspace-2757419/,如需轉載,請註明出處,否則將追究法律責任。

相關文章