NVIDIA推出液冷GPU 助力實現可持續高效計算
為了遏制氣候變化,全球企業正在加快構建高效能、高能效的資料中心,Equinix邊緣基礎設施主管Zac Smith也參與其中。
他所效力的Equinix是一家全球服務提供商,旗下管理的資料中心超過240個,致力於在業內率先實現氣候中和。
“一萬家客戶依賴Equinix達成氣候中和的目標。他們需要更大量的資料以及更高水平的智慧,而這通常有賴於AI,且他們希望能夠以一種具有可持續性的方式來實現。”Smith說道。2000年代初還在茱莉亞音樂學院讀研的他,為紐約的音樂家同僚們搭建了網站,由此與技術結下不解之緣。
液冷NVIDIA A100 PCIe GPU能夠滿足客戶對高效能綠色資料中心的需求,在主流伺服器GPU中尚屬首例
能效穩步提升
截至4月,Equinix已發行49億美元的綠色債券。Equinix將透過這些投資工具來最佳化電源使用效率 (PUE),以期減少對環境的影響。PUE是一種行業指標,用於衡量資料中心使用的能源有多少直接用於計算任務。
資料中心運營商正試圖將PUE降至接近1.0的理想水平。Equinix設施目前的平均PUE為1.48,而其旗下新資料中心的PUE最低可低於1.2。
從PUE來看,Equinix正在穩步提升資料中心的能效
Equinix於1月新啟動了一個專門用於提升能效的設施,在此方向上更進一步。其中一部分工作側重於液冷技術。
液冷技術誕生於大型機時代,在AI時代日臻成熟。如今,液冷技術已經以直接晶片(Direct-to-Chip)冷卻的形式廣泛應用於全球高速超級計算機。
NVIDIA GPU在AI推理和高效能運算方面的能效已比CPU高出20倍, 而加速計算也順理成章地將採用液冷技術。
透過加速提高效率
如果將全球所有執行AI和HPC的CPU伺服器切換為GPU加速系統,每年可節省高達11萬億瓦時的能源。節約的能源量可供150多萬套房屋使用一年。
NVIDIA釋出了率先採用直接晶片(Direct-to-Chip)冷卻技術的資料中心PCIe GPU,為可持續發展貢獻了自己的力量。
Equinix正在驗證A100 80GB PCIe液冷GPU在其資料中心的應用,這也是該公司為實現可持續性冷卻和熱量捕獲的綜合性方案中的一部分。GPU現已進入試用階段,預計將於今年夏季正式釋出。
節約用水和用電
“這是我們實驗室中引入的首款液冷GPU,我們倍感興奮,因為客戶迫切希望透過可持續的方式來利用AI。”Smith說道。
資料中心運營商旨在淘汰用於冷卻資料中心內部氣體的冷水機組,因其每年會蒸發數百萬加侖的水量。而藉助液冷技術,系統僅需對封閉系統中的少量液體進行迴圈利用,並能夠著重於主要的發熱點。
Smith說: “我們將變廢為寶。”
同等效能,更少耗電
在單獨的測試中,Equinix和NVIDIA均發現:採用液冷技術的資料中心工作負載可與風冷設施持平,同時消耗的能源減少了約30%。NVIDIA估計,液冷資料中心的PUE可能達到1.15,遠低於風冷的PUE1.6。
在空間相同的條件下,液冷資料中心可以實現雙倍的計算量。這是由於A100 GPU僅使用一個PCIe插槽,而風冷A100 GPU需使用兩個PCIe插槽。
NVIDIA藉助液冷技術達到了節省電力和增加密度的效果
至少有十幾家系統制造商計劃於今年晚些時候在其產品中使用液冷GPU,包括華碩(ASUS)、永擎電子(ASRock Rack)、富士康工業網際網路(Foxconn Industrial Internet)、技嘉科技(GIGABYTE)、新華三(H3C)、浪潮(Inspur)、英業達(Inventec)、寧暢(Nettrix)、雲達科技(QCT)、 超微(Supermicro)、 緯穎科技(Wiwynn)和超聚變(xFusion)。
全球趨勢
在亞洲、歐洲和美國,制定能效標準的法規尚未確定。這也推動了銀行和其他大型資料中心運營商紛紛加入液冷技術評估的隊伍。
液冷技術的使用範圍並不侷限於資料中心,汽車和其他系統也需要利用該項技術來冷卻封閉空間內的高效能系統。
可持續發展之路
“我們即將開啟新的旅程。”Smith談及這一採用液冷技術的主流加速器首次亮相時如是說。
事實上,NVIDIA計劃於明年推出的一版A100 PCIe卡中搭載基於NVIDIA Hopper架構的H100 Tensor Core GPU。近期內,NVIDIA計劃將液冷技術應用於自有高效能資料中心GPU和NVIDIA HGX平臺。
為推動快速採用,該液冷GPU可在減少能耗的同時維持效能不變。未來,我們期望這些卡在使用同等能源的條件下,展現更出色的效能,滿足使用者所需。
“僅僅測量功率沒有意義,降低碳排放的同時提升效能才是我們努力的方向,” Smith說道。
來自 “ NVIDIA ”, 原文作者:NVIDIA;原文連結:https://mp.weixin.qq.com/s/PrpTMO_kOcblwaoRqSuUpg,如有侵權,請聯絡管理員刪除。
相關文章
- 利用微設計實現可持續高效的基礎設施
- 量子技術助力社會:實現可持續發展目標
- Interplex致力於"實現可持續發展"
- 雲端計算持續滲透,助力線上教育加速發展
- 駕馭動能:實現可持續增長營銷
- 亞馬遜雲科技以"雲生、雲治、雲創" 助力客戶實現可持續發展亞馬遜
- 華熙國際創新設計實現冬奧“可持續發展”理念
- Nvidia 悄悄推出更快、更低功耗的 Tesla GPU 加速器GPU
- IBM推出可持續發展軟體新能力,幫助企業實現高效精準的範圍3溫室氣體核算及報告IBM
- 使用流水線外掛實現持續整合、持續部署
- 人工智慧如何幫助水電實現可持續發展人工智慧
- 可持續IT報告:為何可持續綠色IT革命時機已到?
- 函式計算持續交付入門:雲效+FC實現 簡單IP查詢工具函式
- iOS使用fastlane實現持續整合iOSAST
- 曼大中國中心在華積極踐行ESG理念 助力實現聯合國可持續發展目標
- Jenkins+GitLab+Docker+SpringCloud+Kubernetes實現可持續自動化微服務JenkinsGitlabDockerSpringGCCloud微服務
- JPR:NVIDIA桌面GPU市佔率飆升至88% Intel份額已可忽略不計GPUIntel
- GPU高效能程式設計CUDA實戰(二)GPU程式設計
- 滴滴雲即將推出基於NVIDIA Tesla A100 GPU的系列產品GPU
- 用 gitlab-runner 實現微信小程式可持續化自動部署Gitlab微信小程式
- 聯合國可持續發展:2021年可持續發展目標報告
- 使用 GitHub 和 Python 實現持續部署GithubPython
- 淺談持續整合的理解以及實現持續整合,需要做什麼?
- SpringBoot+Docker+Git+Jenkins實現簡易的持續整合和持續部署Spring BootDockerGitJenkins
- 中國信通院&IBM:2022年可持續計算藍皮報告(附下載)IBM
- Ollama本地部署Qwen2.5 14B(使用docker實現Nvidia GPU支援)DockerGPU
- NVIDIATeslaK80GPU助力精確計算生物分子電荷資訊GPU
- 聯合國:2023年航空客運需求預計將實現全面復甦和可持續增長
- 報告:通往可持續城市之路
- go-ums 從設計到實現( v0.1.0 )-持續更新Go
- 快速指南:在DevOps中實現持續交付dev
- eBay透過事件溯源實現持續交付事件
- 持續整合、持續部署、持續交付、持續釋出
- SAP系統助力複合新材料企業降本增效 可持續發展
- ERP系統助力企業走向綠色化、低碳化、可持續發展化
- 計算機視覺的特定詞翻譯(持續更新)計算機視覺
- 《計算思維史話》思維導圖——持續更新
- docker配置Nvidia環境,使用GPUDockerGPU