Nvidia 悄悄推出更快、更低功耗的 Tesla GPU 加速器
Nvidia 升級了其 Volta 系列的 Tesla GPU 加速卡,使其能夠以舊型號的相同功率更快地工作。
Nvidia 上週舉行了 Supercomputing 19 大會,不出意外的是公佈了很多新聞,這些我們將稍後提到。但被忽略的一條或許是其中最有趣的:一張更快、功耗更低的新一代圖形加速卡。
多名與會者與多個新聞站點發現了這點,Nvidia 向我證實這確實是一張新卡。Nvidia 的 “Volta” 這代 Tesla GPU 加速卡在 2017 年就已淘汰,因此升級工作應該早已過期。
V100S 目前僅提供 PCI Express 3 介面,但有望最終支援 Nvidia 的 SXM2 介面。SXM 是 Nvidia 的雙插槽卡設計,與 PCIe 卡不同,它不需要連線電源。SXM2 允許 GPU 通過 Nvidia 的 NVLink(一種高頻寬、節能的互連)相互之間或與 CPU 進行通訊,其資料傳輸速度比 PCIe 快十倍。
藉助此卡,Nvidia 聲稱擁有單精度 16.4 TFLOPS,雙精度 8.2 TFLOPS 並且 Tensor Core 效能高達 130 TFLOPS。這僅比 V100 SXM2 設計提高了 4% 至 5%,但比 PCIe V100 變體提高了 16% 至 17%。
記憶體容量保持在 32 GB,但 Nvidia 新增了 High Bandwidth Memory 2(HBM2),以將記憶體效能提高到 1,134 GB/s,這比 PCIe 和 SXM2 都提高了 26%。
通常情況下,效能提升將同時導致功率增加,但在這裡,PCIe 卡的總體功率為 250 瓦,與上一代 PCIe 卡相同。因此,在相同功耗下,該卡可額外提供 16-17% 的計算效能,並增加 26% 的記憶體頻寬。
其他新聞
Nvidia 在會上還發布了其他新聞:
- 其 GPU 加速的基於 Arm 的高效能運算參考伺服器的新參考設計和生態系統支援。該公司表示,它得到了 HPE/Cray、Marvell、富士通和 Ampere 的支援,Ampere 是 Intel 前高管勒尼·詹姆斯(Renee James)領導的一家初創公司,它希望建立基於 Arm 的伺服器處理器。
- 這些公司將使用 Nvidia 的參考設計(包括硬體和軟體元件)來使用 GPU 構建從超大規模雲提供商到高效能儲存和百億億次超級計算等。該設計還帶來了 CUDA-X,這是 Nvidia 用於 Arm 處理器的 CUDA GPU 的特殊版本開發語言。
- 推出 Nvidia Magnum IO 套件,旨在幫助資料科學家和 AI 以及高效能運算研究人員在幾分鐘而不是幾小時內處理大量資料。它經過優化,消除了儲存和 I/O 瓶頸,可為多伺服器、多 GPU 計算節點提供高達 20 倍的資料處理速度。
- Nvidia 和 DDN (AI 以及多雲資料管理開發商)宣佈將 DDN 的 A3ITM 資料管理系統與 Nvidia 的 DGX SuperPOD 系統捆綁在一起,以便客戶能夠以最小的複雜性和更短的時限部署 HPC 基礎架構。SuperPOD 還帶有新的 NVIDIA Magnum IO 軟體棧。
- DDN 表示,SuperPOD 能夠在數小時內部署,並且單個裝置可擴充套件至 80 個節點。不同的深度學習模型的基準測試表明,DDN 系統可以使 DGXSuperPOD 系統完全保持資料飽和。
作者:Andy Patrizio 選題:lujun9972 譯者:geekpi 校對:wxy
訂閱“Linux 中國”官方小程式來檢視
相關文章
- Nvidia釋出更快、功耗更低的新一代圖形加速卡
- 滴滴雲即將推出基於NVIDIA Tesla A100 GPU的系列產品GPU
- NVIDIA推出液冷GPU 助力實現可持續高效計算GPU
- AMD的旗艦AI加速器推出MI325X對標Nvidia H200AI
- 如何使FRAM MCU速度更快所需功耗最低
- [譯]GPU加持,TensorFlow Lite更快了GPU
- tesla-t4 GPU 推理 resnet50 比 CPU 快多少?GPU
- docker配置Nvidia環境,使用GPUDockerGPU
- NVIDIA 推出 Grace CPU 超級晶片晶片
- NVIDIA推出GeForce RTX SUPER系列顯示卡
- VirGL與NVIDIA GPU一起執行 - 2024(QEMU)GPU
- Centos 7.8 中安裝Nvidia A100 GPU驅動CentOSGPU
- AMD B450主機板正式釋出:開放超頻,功耗和發熱量更低
- 時隔8年,Supercell悄悄推出了《卡通農場》續作
- 如何在Ubuntu 18.04伺服器上安裝TensorFlow(Nvidia GPU)Ubuntu伺服器GPU
- 使用 NVIDIA Container Toolkit 和 Docker 配置 GPU 深度學習環境AIDockerGPU深度學習
- [原始碼解析] NVIDIA HugeCTR,GPU版本引數伺服器---(3)原始碼GPU伺服器
- [原始碼解析] NVIDIA HugeCTR,GPU版本引數伺服器--- (4)原始碼GPU伺服器
- [原始碼解析] NVIDIA HugeCTR,GPU 版本引數伺服器 --(1)原始碼GPU伺服器
- [原始碼解析] NVIDIA HugeCTR,GPU版本引數伺服器--- (2)原始碼GPU伺服器
- 在Ubuntu 20.04中安裝Nvidia V100 GPU驅動UbuntuGPU
- wsl docker裡執行ollama並使用nvidia gpu的一些記錄DockerGPU
- Nvidia顯示設定不可用,您當前未使用連線到NVIDIA GPU的顯示器解決方法GPU
- vGPU 7.X新特性解讀,NVIDIA為何力推虛擬GPU?GPU
- 在 NVIDIA DGX Cloud 上使用 H100 GPU 輕鬆訓練模型CloudGPU模型
- [翻譯] NVIDIA HugeCTR,GPU 版本引數伺服器 --(10)--- 推理架構GPU伺服器架構
- 英偉達 RTX 4090/4080/4070 GPU型號、視訊記憶體、功耗曝光GPU記憶體
- 麻省理工學院和美國空軍推出AI加速器計劃AI
- 華為麒麟980自研GPU曝光 欲聯手NVIDIA對抗高通GPU
- Ollama本地部署Qwen2.5 14B(使用docker實現Nvidia GPU支援)DockerGPU
- [原始碼解析] NVIDIA HugeCTR,GPU版本引數伺服器--- (6) --- Distributed hash表原始碼GPU伺服器
- VMware ESXi安裝NVIDIA GPU顯示卡硬體驅動和配置vGPUGPU
- [原始碼解析] NVIDIA HugeCTR,GPU 版本引數伺服器 --(9)--- Local hash表原始碼GPU伺服器
- [Paper Reading] Tesla AI Day for FSD BetaAI
- 新思科技推出面向低功耗嵌入式SoC的全新ARC DSP IP解決方案
- java----volatile, 用更低的代價替代同步Java
- 超低功耗MCU如何降低功耗
- JPR:NVIDIA桌面GPU市佔率飆升至88% Intel份額已可忽略不計GPUIntel