大模型也可解釋了?
大模型都在想什麼?OpenAI 找到了一種辦法,能給 GPT-4 做「掃描」,告訴你 AI 的思路,而且還把這種方法開源了。
大語言模型(LLM)是當前 AI 領域最熱門的探索方向,吸引了大量的關注和研究投入。它們強大的語言理解能力和生成能力在各種應用場景中都表現出巨大潛力。雖然我們見證了大模型迭代後效能上的顯著提升,但我們目前對模型中的神經活動仍然只是一知半解。
本週四,OpenAI 分享了一種查詢大量「特徵」的全新方法 —— 或許這會成為可解釋的一種可用方向。OpenAI 表示,新方法比此前的一些思路更具可擴充套件性,研究團隊使用它們在 GPT-4 中找到了 1600 萬個特徵。
有趣的是,從作者列表中,我們發現已經從 OpenAI 離職的 Ilya Sutskever、Jan Leike 等人也是作者之一。
可謂是一項重要的研究。
論文標題:Scaling and evaluating sparse autoencoders
論文地址:https://cdn.openai.com/papers/sparse-autoencoders.pdf
程式碼:https://github.com/openai/sparse_autoencoder
特徵視覺化:https://openaipublic.blob.core.windows.net/sparse-autoencoder/sae-viewer/index.html
解釋神經網路
作為機器學習模型,神經網路透過使用模仿生物神經元協同工作的過程來識別現象並得出結論,然而長久以來,我們並不真正瞭解神經網路的內部運作原理。神經網路並不是直接設計的,研究人員設計了訓練它們的演算法。由此產生的神經網路還不能很好地被理解,並且不能輕易地分解為可識別的部分。這意味著我們不能像推理汽車安全那樣推理人工智慧安全。
為了理解和解釋神經網路,首先需要找到用於神經計算的有用構建塊。然而,語言模型內的神經啟用是以不可預測的模式啟用的,似乎同時代表許多概念,它們還密集啟用,這意味著每次啟用總是在每個輸入上觸發。
但現實世界的概念非常稀疏 —— 在任何給定的上下文中,所有概念中只有一小部分是相關的。這激發了稀疏自動編碼器的使用。
稀疏自動編碼器(sparse autoencoder)是一種識別神經網路中少數「特徵」的方法,這些「特徵」對於產生任何給定的輸出都很重要,類似於一個人在推理某種情況時可能想到的一小部分概念。它們的特徵顯示出稀疏的啟用模式,自然地與人類易於理解的概念保持一致,即使沒有直接的可解釋性激勵。
然而,訓練稀疏自動編碼器仍然面臨嚴峻的挑戰。大型語言模型表徵大量概念,自動編碼器可能需要相應巨大的規模才能接近完全覆蓋前沿模型中的概念。學習大量稀疏特徵具有挑戰性,並且過去的工作尚未證明可以很好地擴充套件。
大規模自動編碼器訓練
OpenAI 最新的研究進展提出了一種新方法,能夠將稀疏自動編碼器擴充套件到前沿人工智慧模型上的數千萬個特徵。並且該方法顯示出平滑且可預測的擴充套件,與現有方法相比具有更好的規模回報。同時,OpenAI 還引入了幾個用於評估特徵質量的新指標。
OpenAI 使用該方法在 GPT-2 small 和 GPT-4 啟用上訓練各種自動編碼器,包括 GPT-4 上的 1600 萬個特徵的自動編碼器。
具體來說,研究團隊在 GPT-2 small 模型和一系列逐步增大的、共享 GPT-4 架構和訓練設定的模型(包括 GPT-4 本身)的殘差流上訓練自動編碼器。他們選擇了靠近網路末端的一層,該層應包含許多特徵,而不專門用於下一個 token 的預測。
所有實驗均使用 64 個 token 的上下文長度。研究團隊先在 dmodel 維度上減去平均值,並將所有輸入歸一化為單位範數(unit norm),然後再傳遞給自動編碼器(或計算重建誤差)。
訓練結束後,研究團隊根據稀疏性 L_0 和重建均方誤差 (MSE) 對自動編碼器進行評估。
為了簡化分析,OpenAI 不考慮學習率預熱或衰減,sweep 小規模的學習率,並推斷大規模的最佳學習率的趨勢。
為了檢查特徵的可解釋性,OpenAI 進行了視覺化工作。以下是 OpenAI 發現的一些可解釋的特徵:
人類的缺陷;
價格上漲;
X 和 Y;
訓練 Log;
反問句;
代數環;
誰 / 什麼;
多巴胺。
例如,GPT-4 特徵:與事物(尤其是人類)有缺陷相關的短語:
價格上漲:
反問句:
侷限和發展方向
新方法能夠提高模型的可信度和可操縱性。然而這仍是早期工作,存在許多侷限性:
與此前的研究一樣,許多發現的特徵仍然難以解釋,許多特徵的啟用沒有明確的模式,或者表現出與它們通常編碼的概念無關的虛假啟用。此外,目前我們還沒有很好的方法來檢查解釋的有效性。
稀疏自動編碼器不會捕獲原始模型的所有行為。目前,將 GPT-4 的啟用透過稀疏自動編碼器大致相當於使用大約 1/10 計算量訓練一個模型。為了完全對映前沿 LLM 中的概念,我們可能需要擴充套件到數十億或數萬億個特徵,即便使用改進的擴充套件技術,這也具有挑戰性。
稀疏自動編碼器可以在模型中的某一點找到特徵,但這只是解釋模型的一步。還需要做更多的工作來了解模型如何計算這些特徵以及如何在模型的其餘部分下游使用這些特徵。
稀疏自動編碼器的研究令人興奮,OpenAI 表示,還有一些待解決的挑戰。短期內,工程師們希望新發現的特徵能夠實際用於監控和控制語言模型行為,並計劃在前沿模型中對此進行測試。希望最終有一天,可解釋性可以為我們提供推理模型安全性和穩健性的新方法,並透過對 AI 行為提供強有力的保證,大幅提高我們對新一代 AI 模型的信任。
參考內容:
https://openai.com/index/extracting-concepts-from-gpt-4/