時間點:202011-18
一、背景
2020年9月nvidia釋出了30系列的顯示卡。比起20系列網上的評價是:效能翻倍,價格減半。
最近正好本人手上有RTX 2080Ti 和 RTX 3090,所以本人專門對其在深度學習上的效能進行了測試。
二、測試環境
- 硬體:RTX 2080Ti & RTX 3090
- nvidia-driver:
455.45.01(2020-11-17釋出最新版,支援2080ti, 3090)
455.38(支援2080ti, 3090)
455.23.04 455.38(只支援30系列的穩定版)
450.80.02(不支援30系列的穩定版) - pytorch: 官網pytorch 1.6.0, 官網pytorch 1.7.0, 原始碼編譯pytorch 1.8.0a0+4883d39(cuda11.1+cudnn8.0.5+mkl)
- 作業系統:nvidia-docker ubuntu18.04(cuda10.2, cuda11.0, cuda11.1三個版本)
三、測試結果
某網路:是本人使用的一個網路模型
Conv1d, Conv2d來源於 https://github.com/pytorch/pytorch/issues/47039
四、結論
- rtx2080ti: 用pytorch1.6版本
- rtx3090: 用pytorch1.7版本
- pytorch1.8(原始碼編譯):效能最差。(無法解釋?,編譯環境如下,如有高人明白請幫忙指明,在此謝過!)
- pytorch對30系列的顯示卡還在支援中,期待其更新版本。有網友測試了,tf在3090上確實能實現比2080Ti翻倍的效能,希望pytorch加油
- 新東西別太早嘗試,其生態不一定完善,需要時間。