想要給伺服器低耗降溫?那就把它扔到水裡啊……

yunqi_share發表於2017-05-09

這一方案可以無需使用空調,能源使用率(PUE)逼近了理論極限值 1.0。
如何給伺服器快速低耗高效低成本降溫始終是一個難題。阿里雲科學家在 4 月 26 日的雲棲大會·南京峰會上展示了全浸沒的伺服器——麒麟,把整臺伺服器浸在液體裡迴圈冷卻,這一方案可以無需使用空調,能源使用率(PUE)逼近了理論極限值 1.0。這是「麒麟」資料中心解決方案首次公開展示,這種耗能極低的技術方案將應用於阿里雲服務,也將成為阿里巴巴的 NASA 計劃的重要基礎,可為未來 20 年提供計算能力。

利用熱交換的原理,阿里巴巴工程師將伺服器完全浸沒在一種特殊的冷卻液裡,極速運算的伺服器產生大量熱量可被冷卻液直接吸收進入外迴圈冷卻,全程用於散熱的能耗幾乎為零。在傳統資料中心裡,幾乎有一半的電能消耗在了散熱上。

液體降溫是一種極為高效的降溫散熱方式,但運用到商用伺服器叢集上還是頭一次。阿里雲科學家克服了伺服器系統、製冷系統、冷卻材料等多個領域的難題,實現了零噪音、零汙染、綠色節能,可支援超過 200kW 功耗的伺服器叢集。

得益於浸沒式液冷高效的散熱效率,「麒麟」無需風扇、空調等大型製冷裝置,可在任何地方部署,節省空間 75% 以上,單位體積內的計算能力比過去提升了 10 倍;高密封性也使得元器件遠離溼度、灰塵、振動的影響,受干擾情況幾乎為 0;同時,這種特殊液體完全絕緣且無腐蝕性,即使浸沒元器件 20 年以上,成分不會發生任何變化,也不會對電子元器件產生任何影響。

IDC 預計,2020 年將產生 40ZB 的資料。與此同時,到 2024 年資料中心耗電量將佔到全社會耗電量的 5% 以上。傳統風冷顯得越來越力不從心,「麒麟」的出現打破了能耗對資料中心的制約,接近 1.0 的能源使用效率(PUE)可以讓電力發揮出最大的計算能力。

目前,「麒麟」已經通過了初步測試和驗證,將通過阿里雲對外提供計算服務。

作為阿里巴巴 NASA 計劃的重要一環,阿里巴巴工程師正在研發一條綠色高效的資料中心解決方案,陸續推出了年均 PUE 低於 1.3 的深層湖水製冷資料中心、PUE 低於 1.25 的自然風冷資料中心,而今天,阿里巴巴「麒麟」的 PUE 正走向理論極限值 1.0。

原文轉自創見。


相關文章