聊聊 ChatGPT 的本質

鼎叔發表於2024-05-29

這是鼎叔的第九十八篇原創文章。行業大牛和剛畢業的小白,都可以進來聊聊。

階段性總結下我對 ChatGPT 的基礎理解,算是一篇學習思考筆記吧。其中難免有很多不準確的,或過於簡略的地方,將來再迭代學習。

OpenAI 做 ChatGPT 的底層邏輯

一句話描述,就是大力出奇跡。為什麼會產生這種結果呢?

這要從 AI 發展的兩大流派說起,就是符號主義和連線主義。前者基於邏輯推理的智慧模擬方式,透過專家對於符號的深入研究來完善邏輯推理。這種方式的最大侷限性是在真實場景中要考慮的邏輯推理過於複雜了,想達到使用者的高滿意度極其困難。

連線主義就是從腦神經的結構受到啟發,主要神經元數量足夠多,訓練的輸入量足夠龐大,訓練出來的神經元連線效果就有可能達到人類思考的水平。人的大腦形成認知,就是某些神經元的連結輸出被固化了。

OpenAI 在這個方面下的賭注成功了,海量引數、極其龐大的訓練文字和巨大算力,最終產生了湧現的進化效果,複雜常識的理解能力急劇提升。垂直小模型的推理難題被輕鬆解決。

一夜之間很多老 AI 人覺得以往的研究白乾了,但是新模型的前景又讓從業人員無比興奮。

ChatGPT 訓練成功的要素

個人觀點,這是非專業初學者更應該努力理解的:ChatGPT 訓練成功,主要做對了哪幾件事(除了 “大”),繼承了什麼好的遺產。

1 預訓練。

ChatGPT 對網際網路上的海量資訊進行了無監督學習,這些龐大的已有資訊顯然絕大部分都沒有被人工標註過,也不可避免夾帶了大量低質量的資訊,包括網路上常見的陰謀論,偏見等。

ChatGPT 從未標註資料中自動推匯出預訓練資料,使預訓練變得更有擴充套件性。

預訓練也是遷移學習在深度學習中實現的主要方法,透過在替代性任務上訓練模型,然後將其適配到下游任務中,實現了跨任務的知識遷移。

2 RLHF 基於人類反饋的強化學習

RLHF 解決的核心問題是,讓大模型生成內容和人類的常識、認知、需求和價值觀保持一致。

OpenAI 團隊首先從海量資料集中,蒐集包含有 “問題” 和 “答案” 的資料對,然後用它們來訓練一個獎勵模型,當輸入文字的質量越高(即更符合人類評價標準),獎勵分數越高。最後讓大語言模型能夠根據這個獎勵模型給出的獎勵分數來自我生成更高質量的回答。

這個技術方案依然面對大量倫理監管和侷限性挑戰,還在不斷演進中。

3 模型微調。

多陣列織其實是無法滿足預訓練和微調基礎模型的計算要求的,以共生為關聯和標準模型訓練,會產生虛假關聯和東拼西湊的合成結果。

每家公司不可能都從頭訓練一個自己的大模型,要想在自己服務介面中提供大模型能力,推理成本是必須考慮的要素,微調相對來說就是一個更優的方案。輕量級的微調模型也能夠針對每個使用者的資料進行訓練,同時滿足資料安全的需求。

4 Transformer 和自注意力機制

ChatGPT 的技術基礎就是谷歌的 Transformer 深度學習模型。傳統的自然語言處理模型難以進行平行計算,導致長文字處理時效能下降非常明顯。

Transformer 模型是基於自注意力機制來構建的,包含編碼器和解碼器兩個部分,前者負責將輸入序列轉換為定長的向量表示,後者將向量解碼為輸出序列,自注意力機制能夠建立長距離的依賴關係,即使經過多輪對話,還能夠保持對前文指代的正確理解。Transformer 的平行計算能力讓它在長序列處理時具有更高的效率。

5 Token 機制

Token 是 ChatGPT 這種大語言模型最重要的概念。Token 就是文字處理的最小單位,英文中就是一個單詞,中文中就是一個分詞。輸入的每個 token 都會對應一個唯一的數字 ID,以便讓模型進行編碼和解碼。

對於包含了數億甚至數十億引數的大模型,要實現高效的訓練和推理,模型的輸入必須進行限制,長文字就會基於 Token 進行分割。這種表示形式既有利於大模型的處理,也有利於透過 token 之間關係的學習來獲取更多語義資訊。

最近爆火的影片生成大模型 Sora,也使用了類似的概念 - 最小影片單位 Patch。當微觀學習尺度是統一的,不管什麼尺寸、解析度和幀率的輸入影片都可以統一進行學習和輸出。

ChatGPT 的商業機會

商業機會按產業細分型別,可以分為這幾類受益領域:

1 提供 AI 算力的公司,提供定製化,合理計費的算力服務。

2 提供上游資料服務的公司,包括對資料進行查詢、轉換、標註和治理。

3 提供中間演算法定製模型的公司和研究機構。具備真正基礎大模型研發能力的公司非常少,但是提供垂直能力封裝的、體驗強化的中間模型,還是很有市場的,但這塊需要有足夠強的垂直行業能力或者客戶服務嗅覺,或者建設活躍的 AI 交流社群。

4 提供熱門應用擴充能力的公司。這樣的公司有兩類,一類是在某類應用上已經有先發優勢,有大量的忠實使用者,然後把大模型能力引入到特定的使用者場景,成功地形成口碑效應,增加了付費意願。

還有一類創業型公司,快速利用大模型的能力提供嚐鮮產品,利用自己的 “快” 趕在大公司的前面,在應用場景上截胡使用者。這類公司的員工非常少,非常精,容易獲得高估值,對同類 “老” 公司帶來不少威脅。這類公司的核心靈活打法就是瘋狂地採集免費訓練資料,趁平臺大公司反擊之前訓練好基礎模型,拉到初期的使用者群,因為員工極少,發展驚人,能進一步擴大估值和融資。

ChatGPT 目前的侷限

實時性不足,肯定是現階段 ChatGPT 的主要問題。大模型是基於已有海量內容的預訓練來升級的,時效性暫時還有很大的短板。

創造力有限。ChatGPT 能夠自我最佳化內容質量,根據使用者興趣進行調整,但生成內容依然缺乏原創性,也缺乏可控制的個性化內容。長此以往會降低使用者的熱情和工作能力,部分使用者會依賴大模型工具,自身能力會退化。

全新任務的遷移能力不佳。ChatGPT 能夠連貫地輸出有邏輯性的文字,但它在理解語境和情感時可能會受到資料偏差和模型偏移的影響,導致在新的場景任務中表現不佳。大模型學習掌握了一定的語言規律和人類的思維方式,但在創造文字時存在語法邏輯瑕疵,需要後期糾正。

人類文明的思維複雜性是在多維度的,體現了其多樣性,這遠不是讓計算機求解問題這麼單純直接。

ChatGPT 重塑溝通效率

ChatGPT 帶來的自然語言表達效率空前提升,給我們的啟發是,可以利用 ChatGPT 把需要大量溝通的業務重做一遍。

對於溝通表達可能比較弱的工程師,ChatGPT 可能是幫助工程師對外溝通的利器,工程師可以按心目中的標準訓練特定產品,讓非技術人員和該產品先行互動,節約自己的人工溝通時間。

這也是鼎叔在團隊敏捷實踐中引入大模型解決手段的初衷。技術人員和非技術人員不一定都能不厭其煩地面對面交流,理解對方意圖的初級 AI 可能是不錯的預溝通橋樑。

還有一類溝通困難場景,是因為某一方(客戶或者員工)比較羞澀,尷尬。藉助 ChatGPT 問答,不用操心自己的隱私暴露,比如心理/生理問題的諮詢服務。

此外,教育界對於 ChatGPT 在學校的使用會嚴防死守,但它確實可以大幅提高老師的日常效率,節約大量批改作業和教學雜活的時間,同時為學生的個性化教育帶來了可能性。

ChatGPT 的進化方向
一 和搜尋技術更好的整合,比如 RAG 技術。搜尋技術和 ChatGPT 看起來有相似性,但也有很多本質的不同。

搜尋引擎由搜尋器,索引器,檢索器,使用者介面組成,搜尋產品對於結果的實時性要求高。但搜尋產品的結果體驗始終不佳,滿屏的搜尋結果還夾雜著大量廣告,讓普通使用者無從選擇。

ChatGPT 的體驗是革命性的,讓使用者眼前一亮,並且能夠順利地聊下去,得益於長效的注意力機制,前後連貫的推理和互動,讓使用者活躍度暴漲。

兩者互相印證,互為補充,可以大幅提升大模型答案的實時性,還可以降低迴答的幻覺率。

二 和知識圖譜更好的結合。這點有待更多學習。

三 多模態的發展。四大模態(文字,音訊,圖片,影片)的商業機會在互相滲透,虎視眈眈,對使用者而言分界線並不明顯,多模態提供了更多強者通吃的機會。

四 AI 倫理有關的技術管理體系。

大模型的資料標註訓練,本身就存在人為錯誤可能,如果被惡意標註,會產生極大偏離主流價值觀的結果。

惡意引入大量的 “特殊語料” 或者加大其權重,也可以起到扭曲價值觀的目的。

不怕一眼假的幻覺,就怕看不出真假的幻覺,把產品快速被調教成 “壞人”。

可以想見,AI 倫理的破壞者手段更加隱蔽,難以追查,這也對管理制度和體系化能力提出了更高要求。

因為大模型本身的不可解釋性,黑產團伙也可能操縱訓練資料集,生成他們想要的對抗樣本。

五 具身智慧。就像最近 OpenAI 和機器人公司合作,在短短時間就給機器人進行了認知賦能,機器人本身精準的控制力,又能把 AI 指令和行動近乎完美的融合在一起。

六 AI Agents 群體智慧,ChatGPT 是其中當仁不讓的大腦。

大模型實體是由不同公司,不同資源和不同技能團隊負責的,在 AGI(通用人工智慧)真正成熟之前,每個大模型產品都有自己擅長的垂直能力和不擅長的短板。

當我們要輸出一個使用者滿意的智慧方案,完全可以呼叫多個不同的大模型實體來完成,它們就叫 Agents。

比如一個自動生成的金融報告平臺,會需要擅長寫報告的 agent,擅長分析商業資料的 agent,擅長繪製金融圖片的 agent,以及擅長做風險和收益分析的 agent,這四個 agent 在後臺共同協作,前臺由 ChatGPT 直接和使用者對話和反饋。

相關文章