【布客技術評論】大模型開源與閉源:原因、現狀與前景

绝不原创的飞龙發表於2024-04-21

在人工智慧領域,大模型的開源與閉源一直是一個備受爭議的話題。近期,某大廠廠長說了“開源模型永遠超不過閉源模型”,結果,臉書就釋出了開源模型Llama3,超過了OpenAI 的閉源模型 GPT4。本文將探討大模型開源與閉源的原因、當前狀況以及未來前景,以期為讀者提供深入的理解和分析。

算力稀缺性的考量

算力,作為人工智慧領域的核心資源,對於大模型的訓練和應用至關重要。當算力稀缺時,開發者往往傾向於選擇閉源模式以賺取利潤。這是因為算力稀缺時,訓練模型的門檻較高,入局的玩家就少,產品就具有盈利的可能。

然而,當算力不再稀缺,開發者就無法透過閉源模型提供服務獲得足夠的利潤,他們可能會傾向於選擇開源模式。開源不僅可以幫助開發者賺取名聲,提升個人或團隊的知名度,還能夠促進技術的創新和進步。透過開源,開發者可以吸引更多的社群參與和貢獻,共同推動人工智慧技術的不斷完善和發展。

文生圖模型就是個很好的例子,此類模型中,StableDiffusion 和 NovelAI 是開源的,MidJourney 和 DALLE3 是閉源的(其前身DALLE2也是開源的)。然而模型不僅僅指代架構,還包含模型引數。如果我們按照不同引數統計模型個數,開源社群中的 StableDiffusion 模型數量遠遠多於其它架構的模型,並且遠遠多於大語言模型的個數總和。

究其原因,StableDiffusion 模型在一張 4GB 的家用顯示卡就能訓練或者微調這類模型,因此每個文生圖使用者都有條件來訓練新的模型。正所謂“沒有人一直開源,但總有開源的人”,假設在模型訓練者中,有1%~10%能夠將其模型開源,開源生態也能欣欣向榮。

開源模型才是終極答案

開源模型在服務B端和C端使用者方面都具有顯著的優勢。對於B端使用者而言,他們通常有天然的保密需求,內部資料不能外傳。因此,開源模型能夠為他們提供一個安全、可靠的私有化部署平臺,讓他們在保護內部資料的同時,充分利用大模型技術的優勢。此外,B端使用者還可以根據自己的業務需求對開源模型進行定製和最佳化,以滿足特定的應用場景。

對於C端使用者來說,他們的需求千人千面,需要微調大語言模型來實現個性化服務。例如,很多C端使用者都有強烈的角色扮演和對話需求,而模型是否能夠勝任取決於是否在海量的角色扮演對話資料集上進行微調。這類短對話資料集比起網際網路上大量長文字來說,簡直是滄海一粟,需要特地由人工撰寫或者補全。

目前來看,只有ChatGPT4和ChatGLM4這兩個閉源模型能夠勝任這類任務。但如果採用開源模型加微調,那就不一樣了,這使得開源模型在C端市場中具有更大的應用潛力。透過微調開源模型,C端使用者可以獲得更加精準、個性化的服務體驗,極大滿足使用者各方面的需求。

閉源模型並不是穩賺不賠

儘管閉源模型在一定程度上能夠保護開發者的利益,但是投資做大語言模型並不是穩賺不賠的。我們都知道晶片流片一次要幾百萬,但是做一個大語言模型,至少要乘個幾百到幾千倍。就算有了充足的資金,所需的算力也並不能馬上部署到位。

可見訓練大模型的成本已經與定製硬體相差無幾,而硬體作為模型的上游產業,其技術進步和成本變化對大模型的影響不可忽視。隨著未來更先進的硬體技術的出現,人人都有可能訓練出當前規模,也就是幾B到幾十B的大語言模型,這使得當前閉源模型的投入可能面臨打水漂的風險。

假如有兩個老闆,一個人投資大語言模型,而另一個人投資硬體。投資硬體的人得到了單位面積算力提升幾十到幾百倍的晶片,使得更多的人能訓練大語言模型。那麼顯而易見,投資大語言模型的人就玩完了。

這就好比,賣鏟子的人往往比挖礦的人賺錢,因為鏟子作為工具,其需求相對穩定且廣泛,而挖礦則存在較大的不確定性和風險。同樣地,在人工智慧領域,提供大模型訓練算力的公司可能會比直接訓練和應用大模型的公司更具經濟效益。這些公司還可以透過提供算力、資料、演算法等支援服務,從多個維度獲取收益,降低單一業務的風險。

未來展望

綜上,大語言模型也好,文生圖模型也好,無論什麼模型要想更好服務人類,解放生產力,就必須能夠開源並且端側部署。這是毋庸置疑的。

隨著大語言模型數量增長,越來越多的人會加入它的上游,也就是硬體領域,帶來硬體的突破進展。而隨著硬體的進展,越來越多的開發者將傾向於選擇開源模式以共享模型、促進技人工智慧進步。

可能這就是新的指數爆炸,AI 發現新的物理規律,新的物理規律能夠設計更強的硬體,更強的硬體能歐訓練更強的AI。比起軟體領域自己的指數爆炸,新的指數爆炸貫穿了理學、硬體和軟體,將我們的世界連成一個閉環。

相關文章