ChatGPT爆火背後,AI算力成全新角逐風口

liukuang發表於2023-05-11

配圖來自Canva可畫

2023年伊始,資本市場的關注點明顯變了,AIGC逐漸成為這一輪大行情的全新焦點。今年以來,從國外的AUTOGPT到國內的文心一言,再到華為的盤古大模型、訊飛星火大模型等紛紛推出,呈現出一派你方唱罷我方休的姿態。

儘管參與者甚眾,但目前為止這些應用,離真正的落地還相距甚遠。實際上,不論是哪家公司訓練大模型,都離不開天文數字的海量算力支援,因此當前能夠真正從AI大模型中獲益的,更可能是為大模型訓練提供算力支援的高效能算力廠商和伺服器廠商。

ChatGPT拉動算力持續飆升

在AI大模型飛速發展之下,單個大語言訓練驅動AI訓練伺服器需求約2億美元,AI推理伺服器方面,如ChatGPT在初期便可帶動推理伺服器需求約45億美元。而各種ChatGPT的爆發,更讓它背後的AI伺服器隨之水漲船高。

具體而言,算力作為大模型的核心引擎,它的計算方式既簡單又粗暴,即實際擁有多少的GPU晶片,將直接決定其算力的大小。並且ChatGPT所需要的算力不是固定的,反而是逐次遞增的,這就意味著ChatGPT越聰明,其背後所需要的算力就越多,而供需雙方存在的現實差距,則讓算力資源的“緊張問題”變得愈加嚴重起來。

從需求側來看 ,大模型引數量的持續增大,需要更多算力資源予以支援。從大模型自身的發展狀況來看,引數量的變化是一個非常值得關注的指標。從最早的ResNet、inception等模型,到如今的GPT模型,大模型的引數量不斷壯大。

資料顯示,2018年前後OpenAI先後推出Transformer和GPT-1模型,引數量在1億級別;隨後谷歌提出3億引數的BERT模型,引數量再次增長。2019、2020年OpenAI加速追趕,陸續迭代出GPT-2、GPT-3模型,引數量分別為15億、1750億,實現模型體量質的飛躍,而阿里達摩院旗下的多模態大模型M6的引數量,更是達到了萬億甚至10萬億的量級,資料量加速指數級攀升之下,其所需算力自然也需要指數級提升。

從供給側來看 ,大模型引數量不斷增大之下,引數運算需要大規模平行計算的支援,而它取決於底層GPU記憶體容量。OpenAI預計人工智慧科學研究要想取得突破,所需要消耗的計算資源每3—4個月就要翻一倍,資金也需要透過指數級增長獲得匹配。在算力方面,GPT-3.5在微軟Azure AI超算基礎設施(由GPU組成的高頻寬叢集)上進行訓練,總算力消耗約3640PF-days。

在大資料方面,GPT-2用於訓練的資料取自於Reddit上高讚的文章,資料集共有約800萬篇文章,累計體積約40G;GPT-3模型的神經網路是在超過45TB的文字上進行訓練的,資料相當於整個維基百科英文版的160倍。就ChatGPT而言,需要TB級的運算訓練庫,甚至是P-Flops級的算力,需要7-8個投資規模30億、算力500P的資料中心才能支撐執行。總之,在大模型持續發展之下,ChatGPT的競爭焦點逐漸轉到了AI超級算力上,或者是包括GPU在內的算力資源支援上。

礦卡風口再次來臨

在行業算力需求持續飆升之下,以英偉達等為主的核心高效能晶片廠商,已經享受到了作為ChatGPT“賣鏟人”的收益,再次迎來了曾經網際網路大爆發時期的那種礦卡風口。以英偉達的旗艦晶片H100為例,其在短短一週之內,漲價近7萬元人民幣,售價普遍高達30萬左右,次旗艦A100晶片在短短三個月多時間裡,從6萬元一路漲至9萬元,漲幅超過50%。儘管其產品不斷漲價,但訂單依然是供不應求。

一方面, 是英偉達作為硬體霸主,不僅在消費級市場佔據大部分市場,還是AI伺服器晶片領域的頭號選擇,因此其成為很多“渴望”大算力企業的優先選擇。據此前公開的資料顯示,截至2022年第三季度,英偉達在獨立顯示卡市場的份額或已經達到了88%,顯示卡部分帶來的營收佔到了其總營收的60%以上,這表明其依然是消費級顯示卡市場無可爭辯的領導 者。

基於其在影像處理器領域的強勢地位和核心技術,其AI大算力晶片在大模型爆發之後,始終處於“供不應求”的狀態,特別是ChatGPT從國外蔓延到國內的過程中,越來越多的國內網際網路企業選擇跟隨,其中以BAT為首出現了超過10家企業宣佈推出大模型的計劃。按照ChatGPT的水準,至少需要3000枚A100晶片,以9萬/枚的價格來算就是2.7億人民幣才能完成一個大模型部署;10個大模型就需要3萬枚A100晶片,27億人民幣,加上後續訓練成本,這將會是一個天文數字。

另一方面, 由於受到政策層面的影響,高階AI晶片“斷供”的風險劇增,也可能會導致一部分大模型企業提前囤積晶片,導致相關的晶片用量激增。其實,早在去年8月,美國政府就釋出出口管制政策,禁止英偉達將A100、H100兩款晶片售往中國。為了應對制裁並且不丟掉市場份額,英偉達先後推出了“閹割版”的A800、H800兩款晶片。但這兩款晶片依舊被暴增的市場需求一搶而空,市場價格隨之水漲船高。

在科技制裁之下,預計國內相關的想要佈局AI大模型訓練的公司,或許會加速囤積相關的晶片,從而帶來新一輪的AI算力晶片爭奪戰。

國產替代跑步前進,但仍有高牆難越

從目前來看,儘管國內使用英偉達GPU伺服器的佔比較高,且在當前AI大模型發展勢頭之下,英偉達具有壓倒性優勢。但國產企業頂著壓力,依然跑出了幾匹黑馬。根據IDC最新發布的《中國加速計算市場(2021年下半年)跟蹤報告》,2021年全年中國AI伺服器市場規模達350.3億元,同比增長68.6%。在企業級GPU晶片領域,中國廠商壁仞科技在2022年推出“BR100”晶片、天數智芯推出了“智鎧100”晶片、寒武紀推出了“思元270”晶片。

其中壁仞科技稱,BR100擁有全球最高算力,峰值算力達到了市場在售旗艦產品的三倍以上,16位浮點算力達到1000T以上、8位定點算力達到2000T以上,單晶片峰值算力達到PFLOPS級別。這些訊息,對於身處美國從裝置、材料到技術全面封鎖之中的中國企業而言,應該算是一個可喜的訊息,但想要翻越英偉達這座高山顯然也並不容易。

首先 ,在AI晶片設計上,國產廠商與海外巨頭的差距雖然縮小了,但在AI大生態上的差距卻依然存在。比如,壁仞科技的晶片算力資料雖好,但缺少至關重要的處理FP64的能力,依然無法完全取代英偉達的H100、A100。並且,英偉達使用的CUDA平臺早已成為應用最為廣泛的AI開發生態系統,只支援英偉達的Tesla架構GPU,在現階段根本無法用國產晶片取代,因為它涉及到AI晶片的軟體生態建設、基礎架構等,都還掌握在巨頭手中,目前我們還沒辦法在硬體程式設計模型上找到替代方案。

其次 ,在地緣政策背景下,國內目前還無法在AI晶片的全產業鏈實現獨立自主,卡脖子領域仍然很多。過去幾年,美國圍繞中國晶片產業的“科技圍堵”有增無減,從開始的限制材料、裝置,到後來的全產業鏈動員封殺,《晶片法案》的頒佈正是其科技打壓的集中呈現。而在此背景下,國內晶片產業替代所需要的EDA工具、代工製造和先進封裝等方面的問題,將面臨更為嚴峻的現實考驗,想要在短期之內進行全產業鏈替代並不容易。

目前來看,無論是解決生態問題,還是解決產業鏈自主問題都需要時間,後者的實現尤其需要一番功夫。

AI晶片國產化替代破局點在哪兒?

不過從解決問題的角度來說,國產替代也絕非沒有機會,至少從國內當前的信創產業基礎和資料應用來看,國內市場更有可能利用前端市場的創新來逆向底層定製,從而走出一條自己的路。即便是在當下,也有一些暫時性的替代方案和思路。

一是定向的國產扶持路徑。 對於國產廠商來說,如果它不透過定向合作的方式,很難透過“單打獨鬥”來做事情,因為外國企業都會有自己的軟體架構,然後整個產業都適配這個架構,從而形成一個完整的生態,這種情況下“從零做起”完全是“費力不討好”的事情。因此,要想推動國產廠商的崛起,就需要先透過與頭部國產AI晶片製造商長期繫結合作,推動自主企業軟體架構的形成,然後以該架構為主線,逐漸建立起覆蓋上下游的應用生態。

當然,這種路徑也有時間週期。據中信證券研報顯示,GPU IP自研需要36-48個月以及200個工程師,而採用外購IP的方式,則需要12-18個月開發週期,總體上時間都不算短。

二是透過相容CUDA生態做延伸。 相比自研系統,相容CUDA系統則可以迅速切入國際主流的商業計算軟體和人工智慧軟體,透過接入豐富的軟硬體生態,可廣泛應用於大資料,人工智慧、商業計算等應用領域。

對比兩種方法來看,目前較為可行的方案還是第二種,但從長遠來看還是做兩手準備。這樣才能夠未雨綢繆,為將來的全面替代做鋪墊。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69937827/viewspace-2951380/,如需轉載,請註明出處,否則將追究法律責任。

相關文章