ABI Research:預計2024年全球雲端 AI 晶片達100 億美元

DinK發表於2019-09-16

雲端 AI 晶片

人工智慧興起的背後關鍵因素之一是雲端計算能力的提升,而這主要是由雲端 AI 晶片的增強和升級推動的。雲端 AI 晶片是專注於 AI 工作負載的計算晶片,通常部署在雲或資料中心應用環境中。

ABI Research 的第一份報告“雲端 AI 晶片:市場前景和供應商定位”表示:雲端 AI 推理和訓練所產生的 AI 晶片市場,預計將從 2019 年的 42 億美元增長到 2024 年的 100 億美元。

2017 年至 2024 年 AI 晶片銷售年度總收入對比及預測(資料來源:ABI Research)

與終端 AI 晶片相比,雲端 AI 晶片通常具有更高的計算能力,更高的功耗,更大的物理佔用面積,因此也相對更加昂貴。

到目前為止,雲端 AI 市場一直由英偉達的 GPU 和英特爾的 CPU 主導,而現在的它們正面臨著寒武紀科技、Graphcore、Habana Labs 、高通等公司的挑戰。

如今的雲端 AI 晶片市場可大致分為三個部分:

  1. 公共雲,由雲服務提供商託管,如:AWS、Microsoft  Azure、Google、阿里雲、百度雲和騰訊雲等。
  2. 私有云 + 混合雲,主要用於企業資料中心,如:VMware、Rackspace、NetApp、HPE、Dell 等公司的各類產品。
  3. 電信雲,由電信公司為核心網路,IT 和邊緣計算工作負載部署的雲基礎架構,是新興的市場 。

混合雲(Hybrid cloud):由兩個或更多雲端系統組成雲端基礎設施,這些雲端系統包含了私有云、社群雲、公用雲等。

雲端推理 AI 晶片市場呈現出不同的景象,該市場並非由單一玩家主導,這在一定程度上取決於推理任務的性質,以及在垂直方向上各不相同的領域。ABI Research 預計:從 2020 年起,ASIC(專用積體電路)將在該領域實現強勁增長。

谷歌的 TPU 就是這樣一個例子,它主要應用於雲端 AI 相關的訓練和推理任務,被視為 CPU 和 GPU 技術的強大挑戰者。正如報告中所述,谷歌在 TPU 上的成功為其他雲服務提供商提供了開發 AI 專用晶片的藍圖。據 ABI Research 預測,到 2024 年,15%至 18%的市場將落在雲服務供應商之下。

雲端 AI 晶片相關公司

終端 AI 晶片

隨著 AI 推理任務向邊緣轉移,終端 AI 晶片變得更加重要。

終端 AI 晶片,指專注於 AI 工作負載的計算晶片,多應用於 AI 推理任務,通常部署在包括:終端裝置、閘道器、內部部署伺服器等終端環境中。在某些情況下,終端 AI 晶片還可以支援 AI 訓練,尤其是深度學習模型的訓練。

終端,即手機、安防攝像頭、汽車、智慧家居裝置、各種 IoT 裝置等執行邊緣計算的智慧裝置。終端的數量龐大,而且需求差異較大。

ABI Research 的第二份報告“終端 AI 晶片:技術展望和使用案例”中:終端 AI 晶片市場,預計到 2024 年會增長至 710 億美元,2019 年至 2024 年之間的複合年增長率為 31%。

2017 年至 2024 年,通過推理和訓練,AI 晶片銷售的年度總收入(資料來源:ABI Research)

這種強勁的增長主要得益於 AI 推理任務向終端遷移,特別是在智慧手機、智慧家居、自動駕駛、可穿戴裝置和機器人等行業。

目前,終端推斷有這樣三個利基市場:

  1. 機器人,由於機器人依賴於許多型別的神經網路,所以它通常需要異構計算架構。例如用於導航的 SLAM、用於人機介面的會話 AI、用於物件檢測的機器視覺等,它們都會在不同程度上使用 CPU、GPU 和 ASIC。英偉達、英特爾和高通在這個領域競爭尤為激烈。
  2. 智慧工業應用,包括製造業、智慧建築以及石油、天然氣部門。在這一方面,FPGA 供應商表現優異,這主要歸功於 FPGA 的可程式設計性,在面對傳統裝置時,FPGA 具備的較高靈活性和適應性。
  3. “非常終端”,即廣域網中感測器和其他小端節點中需要嵌入的超低功耗 AI 晶片。鑑於重點著力於超低功耗,這個市場主要由 FPGA 公司、RISC-V 設計和 ASIC 供應商組成。

利基市場,指企業選定一個很小的產品或服務領域,集中力量進入併成為領先者,從當地市場到全國再到全球,同時建立各種壁壘,逐漸形成持久的競爭優勢。

此外,該報告還研究了開源晶片的當前發展。在 RISC-V 下,開源晶片初創公司已經開始開發具有高平行計算能力的 AI 專用晶片。由於對整個行業的參與和貢獻,開源 AI 晶片將更符合市場要求和期望,大大降低了產品維護和升級中的錯誤和開發成本。

來自:InfoQ

相關文章