報告下載:新增199IT微信公眾號【i199it】,回覆關鍵詞【2023年生成式AI報告】即可下載

生成式AI新浪潮的生態架構及新物種

在之前的環節提到了我們如何看AI新浪潮的生態系統——三層架構:基礎設施層、模型層和應用層。

以這個三層架構為框架,我們可以透過一些具體的例子感受企業是怎麼在這三層上分佈的。這個新的框架中誕生了很多企業新物種。

英偉達從1993年成立,過去幾十年中,主要是面向圖形和通用計算來做GPU。因為AI的新浪潮,它現在進入到了雲服務。未來它會不會成為一個新的公有云的提供商,而且是一個專門面向生成式AI的新的公有云的提供商,這是非常值得思考的問題,它現在已經在底層做了這麼多的佈局。

像傳統科技巨頭,比如微軟,以前更多的是做應用,現在有模型層、雲服務,也做晶片了。因為它知道給自己的模型和應用,用什麼樣的晶片做最佳化更合適。

SaaS領域的巨頭Salesforce,以前是做應用層的,現在也做自己的模型。不同的企業都在變化,快速地迎合生成式AI技術的發展。彭博Bloomberg在3月份釋出了一個專門面向金融領域的大模型,以前我們說它是一個資訊提供商,現在也開始做AI。

還包括像智譜AI這類基礎模型公司,提出了Model as the Sevice這種全新的商業模式,對外輸出模型能力,把模型作為一種服務,這也是非常好的新模式。

在三層架構中,各種各樣的公司都在不斷地演進,變成了和以前完全不一樣的形態。

生態架構中每一層的定價研究

我們是一家創投機構,我們希望從企業使用生成式AI的成本、定價的角度,能夠給大家提供一些分析。這樣不同的企業在進入這三層中的任何一層的時候會有一個參考,是否應該進入、在這一層中有沒有自己存在的空間和地位?

第一個定價研究是基礎設施層。我們以AWS為例,AWS是全球最大的算力服務公有云提供商。以現在一個比較標準的配置,在AWS上租用一臺A100伺服器,包括8塊英偉達的GPU,然後配上NVLink、Infiniband網路等配置。現在AWS、微軟,火山引擎、華為雲、阿里雲,這種配置的算力資源太搶手了,創業公司都搶不到,大廠自己都不夠用。如果按AWS現在的價格,能夠維持百分之百的使用率,毛利率水平可以達到80%以上,這是非常驚人的。我們以為公有云是一個資產密集型的產業,但是它可以實現這麼高的毛利率水平,基本上是各行各業中最頂級的毛利率水平。

如果未來無論是需求側下降了,還是供給側進一步地提高,或者是像壁仞科技這樣的企業提供價效比更好的晶片,當AWS上算力租用的利用率下降到50%左右的時候,毛利率會下降到63.6%。毛利率水平也很高了。這一層肯定是未來幾年生成式AI發展中非常獲利的一層。

其次是模型層。大家不斷聽說OpenAI訓練一個大模型要幾千萬美元,這是一家初創公司能夠承受得起的嗎?除了科技大廠,創業公司訓練大模型還有意義嗎?這個問題在過去半年說得最多,我們算一下賬,到底需要多少錢?

模型算力支出可以分為訓練和推理。每引數每token的算力需求是常數,訓練上是6 FLOPS,也就是每秒鐘需要6次浮點運算,可以完成一個引數上一個token的訓練。推理是2 FLOPS。

舉個例子,OpenAI著名的GPT-3是1750億引數,它一共使用了3000億個token進行訓練,怎麼計算算力需求?1750億乘以3000億,乘以6 FLOPS,得出的就是訓練這個模型大概所需要的算力。

壁仞科技合夥人梁剛博士介紹了像壁仞科技和英偉達等單卡GPU能夠提供的FLOPS也是一個常數。

還要考慮的是算力使用效率。好的團隊,能做到60%、70%或者80%,不好的團隊同樣用這樣的算力裝置,可能只能發揮出20%-30%的算力效率。所以,還要乘以50%的平均使用效率,可以得到它最後的訓練和推理成本。

2020年的時候,英偉達的主流旗艦GPU是V100,GPT-3需要1400萬美元訓練一次,非常昂貴。那個時候,當研發人員按下訓練開始鍵的時候,和火箭發射一樣的昂貴,如果這個鍵按下去訓練失敗了,1400萬美元就沒有了。2022年A100逐漸成為大家訓練模型的主力配置,由於A100本身價效比的提升及各自團隊算力使用效率的提升,同樣GPT-3模型的訓練成本變成了100多萬美元。

現在更主流的配置是H100和H800,比A100的效能提升了3倍以上,那大模型的訓練成本肯定進一步下降。

大家經常會問中國公司有沒有機會趕上或者超越像OpenAI這樣頂級的大模型公司?起碼從算力成本角度來看,是有這個機會的,訓練一個新的大模型的成本越來越低,不再是一個大的壁壘了。

還有一點,我們在報告中計算了AI對算力需求的增長,是遠遠大於摩爾定律的。晶片是18個月transistor的密度翻了一倍,AI模型對算力需求的增長是差不多3個月翻一倍。解決未來生成式AI的發展,肯定不能單靠晶片公司的半導體制程的進步,一定要提高算力使用效率,怎麼把這個效率提升到80%、90%以上,這是我們認為創業非常有機會的地方。啟明創投也是提前佈局了這個領域的公司,如何在英偉達、壁仞科技的GPU上提升訓練和推理的效率,讓整體成本下降,把整個產業推上一個臺階。

最後一層是應用層定價。這一層也很有意思。應用層定價與具體的應用場景是強相關。

比如應用的使用者規模,如果是一個企業有2000人,我的應用主要給這2000人用,使用者規模不大。對比一個網際網路大廠推出的社交軟體,例如有10億月活。使用量規模對算力的要求是完全不一樣的。

另外是應用的使用頻度。有些應用每天可能就用一次,有些應用一天呼叫AI模型可能是100次以上。

第三是推理的輸入,要輸入一個prompt,有的應用的輸入詞很短,有的需要輸入一整篇文章,成千上萬個token。

最後是推理輸出的內容,有的很簡短,有的要長很多。以上這些都大大影響了應用公司的成本結構。

比如查詢工具,我的同事想查一下啟明創投員工過去六個月誰的開銷最高?這個只有幾十個token的輸入,是很短的輸入,回答可能也很短,告訴你開銷最高的人的名字和金額。這類應用單日大模型呼叫的成本在幾百到幾千美元水平。這類應用的一個SaaS公司,達到了千萬DAU,單日成本是2萬美元。如果是一個金融機構,應用是做行業研究,要在AI大模型中輸入一個比較長的查詢,甚至有一些輔助性的行業報告要放進AI模型中,最終得出一個行業分析,很顯然這個輸入和輸出是長文字的,則單日成本就會上升比較大。高頻的場景,如社交應用,一個使用者每天和大模型對話200次以上,使用者量上去之後,一天的成本可以達到幾十萬到幾百萬美元。

生成式AI將永久改變企業經營

生成式AI會帶來三類企業,第一個是守成者,這類企業是否能夠積極採納生成式AI技術去提升自己的產品,是企業存亡的關鍵。如果能夠積極使用生成式AI的技術增強已有產品,那新產品是不是可以比現有產品定更高的價格?如果可以的話,利潤就會上漲,如果不能提價,等於多了AI技術的新成本,利潤就會下降。

第二類是創新者,是挑戰者角色,會積極透過生成式AI打造產品服務,實現創造新場景或者是重塑舊場景。他們可以獲得一個新的溢價。減去現有的成本,利潤率會顯著提高。

最後是採納者,他並不會用AI改善自己對外輸出的產品,只是用AI來做企業內部的管理,以降本增效為主。這一類企業取決於降本的幅度有多大,否則AI反而會成為公司額外的新成本項。我們認為未來公司會是三個品類中的一個。

這個資料很有意思,我們在今年的3月底、4月初對外發布了截至2023年3月我們見過的100多家中國的生成式AI公司。這些企業是在2020年GPT-3釋出後新成立的,分類主要是語言類應用和多模態應用。語言類大部分做聊天機器人;更多的是多模態應用,大頭是生產力工具,做一些廣告文案、廣告配圖等等,還有的企業會做短影片廣告。這些應用企業佔比比較大,相比之下做底層技術的比較少。三個月過後,還是發生了很大的變化。

第一,語言類應用中的智慧助手增多了,而且主要是有多年細分領域的積累和經驗的老兵入局了,會聚焦做一個非常細分的智慧助手,面向場景的深度更深。

第二,很明顯的是底層技術的公司佔比明顯增大,一批AI界的大牛開始出來創業了,其中有做通用大模型的,有更多的做垂直領域的垂域模型,有做工具鏈來提升模型訓練和推理的效率的,這個佔比變得更大。

十大論文及人才分佈

我們諮詢和調研了全球大概100多位頂級的AI業內領袖,包括科技大廠AI團隊、頂級研究機構、AI創業者。我們問的是,生成式AI技術對你影響最重要的三篇論文。十大論文是統計出來排名前十的論文。

比如大家經常說大模型是Transformer架構的,說AI 1.0的CNN網路(卷積神經網路)過時了,但是卷積神經網路的復興這篇論文依然是大模型從業者重點關注的一篇論文。

智慧湧現,這肯定是大家談論最多的論文。

人才分佈主要是利用清華大學計算機系的Aminer系統抽取的資料。看全球2000名頂級AI科學家,你會發現美國和中國的情況很不一樣。美國的頂級AI科學家在谷歌、微軟、臉書、亞馬遜、蘋果這些科技企業,排名中間也有麻省理工、史丹佛這些大學,但是在中國,第一名是清華大學,前十排名中僅有一家企業——阿里巴巴,其他都是大學。也許這說明中國企業對於AI底層技術研究的佈局,跟美國的科技大廠不太一樣。

十大展望

最後,我們希望在報告中大膽預測,給大家一些展望,這些展望的基礎也不是閉門造車,是向我們的AI朋友圈學習後的思考。

第一,以我們觀察到的進展,在2024年,甚至更早,中國會出現比肩GPT-4的多語言模型。

第二,超長上下文(Long Context)是下一代大語言模型發展的重點。超長上下文,可以使得人與機器進行幾天、幾個月的持續交流,而不是現在只能聊幾個輪次,機器就忘掉了之前的資訊。

第三,我們認為做垂類大模型有多種方法,這三種會比較常見:

在不改變資料分佈的情況下,利用更多通用資料進行通用大模型預訓練,不特別引入行業資料;利用行業專屬資料微調(Fine-Tuning)通用大模型;利用行業資料佔比更高的資料集進行垂直模型預訓練。

第四,我們認為儘管今天CLIP+Diffusion這種模型架構影響力很大,但在未來的兩年內會出現新架構的文生圖模型。

第五,這種文字到影像的模型,未來將具備更強的可控性。我們已經看到了很多業內的頂級團隊在這方面有新突破。

第六,今年第三、四季度會是文字到音樂生成模型的展現,我們相信明年影片和3D的生成會有更大的突破。

第七,利用PALM-E做具身智慧,把AI大模型跟人類物理空間中的機器人等執行器做結合會有重大發展。

第八,Transformer雖然現在是主流模型架構,模型是為了更好地壓縮全人類的數字資訊,Transformer一定不是終局,還會有更先進的網路結構出現。

第九,我們認為在未來三年內,模型能力與應用無法解耦,真正顛覆性的應用一定出自掌握底層模型研發能力的企業,而不會是一家純粹利用第三方大模型能力做應用的公司。

第十,現在依然是一個可以產生平臺性企業的黃金期,我們相信在近三年中成立的一些創業公司可能有機會成長為千億、萬億市值的公司。

報告下載:新增199IT微信公眾號【i199it】,回覆關鍵詞【2023年生成式AI報告】即可下載