AI 伺服器出貨量的強勁增長推動了對高頻寬記憶體(HBM)的需求。 2022 年 HBM 前三大供應商分別是 SK 海力士、三星和美光,市場份額分別為 50%、40% 和 10%。此外,專為深度學習設計的高階AI GPU的規格也導致了HBM產品迭代。為準備2023下半年推出NVIDIA H100和AMD MI300,三大供應商都在計劃量產HBM3產品。 目前,SK 海力士是唯一量產 HBM3的供應商。隨著更多客戶採用 HBM3,其市場份額預計將增長至 53%。 三星和美光預計將在今年年底或 2024 年初的某個時候開始量產,市場份額分別為 38% 和 9%。
2023年AI伺服器出貨量預計增長15.4%
NVIDIA的DM/ML AI伺服器平均配備4塊或8塊高階顯示卡和2顆主流x86伺服器CPU。 這些伺服器主要由美國頂級雲服務提供商使用。分析顯示,2022年高階GPGPU伺服器出貨量有望增長9%左右,其中約80%集中在中美8大雲服務商。 展望2023年,微軟、Meta、百度、位元組跳動將陸續推出生成式AI產品和服務,進一步拉動AI伺服器出貨量。 預計今年人工智慧伺服器出貨量將增長15.4%,預計2023年至2027年人工智慧伺服器出貨量複合年增長率為12.2%。
AI 伺服器刺激對DRAM、SSD 和 HBM 的需求同步增長
TrendForce 指出,AI 伺服器的興起很可能會增加對記憶體使用的需求。 雖然一般伺服器有 500-600 GB 的伺服器 DRAM,但 AI 伺服器需要更多,平均 1.2-1.7 TB,每個模組 64-128 GB。 對於企業級SSD,由於AI伺服器的高速需求,優先考慮DRAM或HBM,但SSD容量擴容的推動力尚未明顯。 不過在介面方面,PCIe 5.0在解決高速運算需求上更受青睞。 此外,AI 伺服器傾向於使用 GPGPU,而 NVIDIA A100 80 GB 配置為4個或8個時,HBM 使用量約為 320–640 GB。 隨著 AI 模型變得越來越複雜,對伺服器 DRAM、SSD 和 HBM 的需求將同步增長。