不做數值運算、純靠嘴炮也能機器學習?基於自然語言的全新ML正規化來了

机器之心發表於2024-06-21
圖片
AIxiv專欄是機器之心釋出學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報導了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯絡報導。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

本文作者肖鎮中是德國馬克思普朗克-智慧系統研究所和圖賓根大學的博士生,Robert Bamler 是圖賓根大學機器學習方向的教授,Bernhard Schölkopf 是馬克思普朗克-智慧系統研究所的所長,劉威楊是馬普所劍橋大學聯合專案的研究員。

圖片

論文地址:https://arxiv.org/abs/2406.04344

在傳統的機器學習場景如分類和迴歸問題中,給定訓練資料圖片,我們透過最佳化引數圖片學到一個函式模型圖片來準確描述訓練集和測試集中圖片圖片的關係。其中圖片是基於數值的函式,它的引數圖片通常是連續空間中的數值向量或矩陣,最佳化演算法透過計算數值梯度迭代更新圖片從而達到學習的效果。

與其用數值,我們是否能用自然語言來表示一個模型?這種基於自然語言的非數值模型又該如何做推理和訓練

Verbalized Machine Learning (VML;言語化的機器學習) 回答了這些問題,並提出了一種基於自然語言的機器學習全新正規化。VML 把大語言模型 (LLM) 當作自然語言空間中的通用近似函式 (universial function approximator)圖片,資料圖片引數圖片都是自然語言空間中的字串。在做推理時,我們可以將給定的輸入資料圖片引數圖片提交給 LLM,LLM 的回答就是推理的答案圖片

對於任意任務和資料圖片,我們如何得到圖片?在基於數值的傳統機器學習中,我們透過計算損失函式的梯度,將現有的模型引數往損失下降的方向更新,從而得到圖片的最佳化函式:

圖片

其中圖片圖片分別為學習率損失函式

在 VML 的設定中,由於資料圖片引數圖片都是字串且 LLM 被當作是黑箱的推理引擎,所以我們無法透過數值計算來最佳化圖片。但既然我們已經將 LLM 用作自然語言空間中的通用近似函式去近似模型函式,而圖片最佳化器圖片也是一個函式,我們為何不也用 LLM 去近似它?因此,言語化的圖片最佳化函式可寫作

圖片

其中圖片為一個數量為圖片批次的訓練資料和模型預測結果,圖片為最佳化函式的引數(同為自然語言)。

圖片

圖 1:VML 的訓練演算法。

圖片

圖 2:VML 中模型和最佳化器的自然語言模版樣例。

圖 1 顯示了 VML 的完整演算法。可以看見其跟傳統機器學習演算法基本相同,唯一的區別是資料和引數是在自然語言空間裡的字串, 以及模型圖片最佳化器圖片都是透過 LLM 在自然語言空間中進行推理。圖 2 為迴歸任務中模型圖片最佳化器圖片的具體模板樣例。

跟傳統機器學習比,VML 的優勢包括:(1)用自然語言簡單的描述就可以對模型加入歸納偏置 (inductive bias);(2)由於不需要預設模型的函式族 (function family),最佳化器圖片可以在訓練過程中自動對模型的函式族進行選擇;(3)最佳化函式對模型引數的每一步更新都會提供自然語言的解釋,同時模型的描述和推理也是自然語言且可解釋的。

實驗展示

多項式迴歸

如圖 3 所示,模型的初始引數圖片線性迴歸的定義。在第一步最佳化時,最佳化器說它發現圖片圖片有更大的值域,且它們似乎存在正相關性,所以它決定將模型更新為簡單的線性迴歸模型。

在第二步最佳化時,最佳化器說當前模型的不良表現讓它意識到線性模型的假設過於簡單了,同時它發現圖片圖片之間存在非線性關係, 因此它決定將模型更新為二次函式。

第三步最佳化時,最佳化器的關注點從函式族選擇轉換成二次函式的引數修改。最終模型學到了真實函式很接近的結果。

圖片

圖 3: VML 在多項式迴歸任務中的訓練過程記錄。

非線性二維平面分類

如圖 4 所示,模型的初始引數圖片為二維平面二分類的定義,同時用了一句話「決策邊界是個圓」加入歸納偏置。在第一步最佳化中,最佳化器說它基於提供的先驗,將模型更新為了一個圓方程。接下來的最佳化步驟中,最佳化器都在根據訓練資料調整圓方程的圓心和半徑。直到第四十一步,最佳化器說當前模型似乎擬合得很好了,於是停止了對模型的更新。

同時,我們也可以看見在不加歸納偏置的情況下,VML 也能學到一個基於決策樹的不錯的模型,但相比之下訓練損失的波動更大。

圖片

圖 4: VML 在非線性二維平面分類任務中的訓練過程記錄。

醫療影像二分類

如果大模型接受多模態輸入,如圖片和文字,那 VML 也可以用在圖片任務上。這個實驗中,我們使用了 GPT-4o 和 PneumoniaMNIST 資料集,做了一個 X 光片肺炎檢測的任務。

如圖 5 所示,我們初始化了兩個模型,模型的初始引數圖片都為圖片二分類的定義, 但其中一個新增了一句話「輸入是用於肺炎檢測的 X 光圖片」的歸納偏置作為先驗。在訓練了五十步後,兩個模型都達到了 75% 左右的準確度,其中有先驗的模型準確度要稍微高一點點。

仔細觀察第五十步後的模型引數,我們可以看到加了歸納偏置的模型描述中包含了很多與肺炎相關的醫學詞彙,比如「感染」、「發炎」;而沒有加歸納偏置的模型描述中只有對肺部 X 光片的特徵描述,比如「透明度」、「對稱」。

同時,這些模型所學到的描述,都是可以被具備專業知識的醫生驗證的。這種可解釋和人工檢驗的機器學習模型在以安全為重的醫療場景下十分有價值。

圖片

圖 5: VML 在 PneumoniaMNIST 圖片二分類上的訓練記錄。不做數值運算、純靠嘴炮也能機器學習?基於自然語言的全新ML正規化來了
結語

該文章介紹了一種基於大語言模型機器學習新正規化 Verbalized Machine Learning (VML; 言語化的機器學習),並在迴歸和分類任務上展示了 VML 的有效性和可解釋性的特點。

相關文章