文字圖Tranformer在文字分類中的應用

NLP論文解讀發表於2022-01-31

©原創作者 | 蘇菲

論文來源:

https://aclanthology.org/2020.emnlp-main.668/

論文題目:

Text Graph Transformer for Document Classification (文字圖Tranformer在文字分類中的應用)

論文作者:

Haopeng Zhang Jiawei Zhang

01 引言

文字分類是自然語言處理中的基本任務之一,而圖神經網路(GNN)技術可以描述詞語、文字以及語料庫,最近研究者將GNN應用到抓取語料庫中單詞全域性共現關係中。但此前的圖神經網路引用存在不能擴充套件到大型語料庫、且忽略文字圖異質性的缺陷。

在此背景下,本文作者引入了一個基於異質性圖神經網路的新Transformer方法(文字圖Transformer,或者TG-Transformer)。

深度學習模型如卷積神經網路(CNN)、迴圈神經網路(RNN)已經被用於文字特徵的學習中,取代了一些傳統的特徵生成(如n元語法特徵、詞袋特徵)。

最近,一些學者又把圖神經網路(GNN)用於文字分類的研究中,但論文作者指出了其中的一些缺陷,並提出使用文字圖Transformer,一個異質性的圖神經網路用於文字分類問題。而且這是一種可擴充套件的基於圖的方法。

02 方法論

作者首先用圖表示一個已知語料庫的異質性文字圖,然後引入文字圖的取樣方法(Sampling)從文字圖中生成小批量子圖。這些小批量子圖可以送入TG-Transformer中,用於學習文字分類的有效節點特徵,總體框架如圖1所示。

文字圖Tranformer在文字分類中的應用

圖1 TG-Tranformer的總體框架

(1)建立文字圖(Text Graph)

為了獲得語料庫中詞語的全域性共現,論文作者建立了一個異質性文字圖G(異質圖比同質圖更貼近於現實世界),G =(U; V; E;F)。 所謂異質性就是圖中不只包含一種型別的節點或邊(nodes or edges)。

在G中建立了兩種型別的節點,一種是文字節點(U),代表語料庫中的所有文件;另一種是詞語節點(V),代表語料庫詞彙表中的所有詞語。一種是詞語節點(U),代表語料庫詞彙表中的所有詞語;另一種是文件節點(V),代表語料庫中的所有文件。

文字圖中也包含了兩種型別的邊:一種是詞語-文件邊,用大寫E來表示;另一種是詞語-詞語邊,用大寫字母F來表示。詞語-文件邊的權重由TF-IDF方法來計算得到。而詞語-詞語邊的權重通過計算點間互資訊(point-wise mutual information)得到,該互資訊基於在語料庫中滑動視窗的區域性詞語共現來獲得。點間互資訊的計算公式如下:

文字圖Tranformer在文字分類中的應用

 

其中,

文字圖Tranformer在文字分類中的應用

 

分別是語料庫中滑窗的數目,

即只含詞語

文字圖Tranformer在文字分類中的應用

 

只含詞語

文字圖Tranformer在文字分類中的應用

 

既包含詞語

文字圖Tranformer在文字分類中的應用

 

又包含詞語

文字圖Tranformer在文字分類中的應用

 

N是在語料庫中滑窗的總數目。

(2)文字圖的取樣

為了減少計算成本和記憶體成本,論文作者提出了一種文字圖的取樣方法,而不是用整個文字圖去學習。TG-Transformer的訓練輸入是小批量的取樣子圖,這種取樣方法是作為無監督學習的一個預處理步驟,以控制模型的學習時間成本,並可以擴充套件到大規模語料庫中。

首先,基於PpageRrank演算法,計算了圖的親密矩陣S(intimacy matrix),公式如下:

文字圖Tranformer在文字分類中的應用

 

其中,

因子

文字圖Tranformer在文字分類中的應用

 

之間,通常設為0.15。

文字圖Tranformer在文字分類中的應用

 

是標準化的對稱鄰接矩陣,

是標準化的對稱鄰接矩陣,A是文字圖的鄰接矩陣,D是相應的對角矩陣。

因此,

文字圖Tranformer在文字分類中的應用

 

測度了節點i和節點j間的親密分數。

對於文件詞語節點

文字圖Tranformer在文字分類中的應用

 

取樣大小為k的子圖

文字圖Tranformer在文字分類中的應用

 

即通過選擇前k個最親密的鄰接文件節點

文字圖Tranformer在文字分類中的應用

 

對於詞語文件節點

文字圖Tranformer在文字分類中的應用

 

首先計算兩種型別的關聯邊(incident edge)的比。

文字圖Tranformer在文字分類中的應用

 

計算公式如下:

文字圖Tranformer在文字分類中的應用

 

其中,

文字圖Tranformer在文字分類中的應用

 

和分別是關聯的

詞語-詞語邊集合、詞語-文字邊集合,

且親密分數大於閾值

文字圖Tranformer在文字分類中的應用

 

取樣大小為k個大小的情景圖

文字圖Tranformer在文字分類中的應用

 

即選擇前

文字圖Tranformer在文字分類中的應用

 

個親密鄰居詞語節點

即選擇前k個親密鄰居詞語節點

和前

文字圖Tranformer在文字分類中的應用

 

個親密鄰居文件節點。

(3)文字圖Transformer模型

基於取樣的小批量子圖,TG-Transformer(文字圖Transformer模型)可以遞迴更新文字圖的節點的特徵並用於分類問題。

該模型的輸入是經過兩種結構編碼的批量子圖中節點的原始特徵詞向量。這兩種結構編碼分別是異質性編碼和WL結構編碼:

1)異質性編碼:異質性編碼能刻畫文字圖中的文件和詞語兩種型別。類似於2018年Devlin等人論文中的分割編碼,分別用0和1對文件節點和詞語節點進行編碼。

2) WL結構編碼:論文作者採用了圖理論中著名的WL結構編碼(WEISFEILER-Lehman) 去刻畫文字圖的結構。WL演算法能根據圖中的結構角色標註節點,

可以用

文字圖Tranformer在文字分類中的應用

 

來表示, 編碼公式如下:

文字圖Tranformer在文字分類中的應用

 

公式(5)中的兩個編碼具有相同的維度,

文字圖Tranformer在文字分類中的應用

 

作為原始特徵的嵌入,論文作者把它們加起來作為輸入子圖的初始節點特徵,

文字圖Tranformer在文字分類中的應用

 

表示。

在圖Transformer層,可以加總批量子圖的資訊,以學習目標節點的特徵。每一個圖Transformer層包含三個可訓練的矩陣,分別是查詢權重、關鍵詞權重和值權重

文字圖Tranformer在文字分類中的應用

 

查詢Q、關鍵詞K和值V通過其乘以相應的輸入獲得(Q可以理解為資訊檢索中的查詢,然後根據Query(查詢)和Key(返回的關鍵特徵)的相似度得到匹配的內容(Value)):

文字圖Tranformer在文字分類中的應用

 

因此,TG-Transformer層可以通過公式(7)得到:

文字圖Tranformer在文字分類中的應用

 

其中,G-Res指殘差網路中的圖殘差[2],解決GNN的過度平滑問題。

最後一層的輸出

文字圖Tranformer在文字分類中的應用

 

將被平均為

目標節點z的最終特徵,並最後進入softmax分類中。

文字圖Tranformer在文字分類中的應用

 

基於對所有節點在訓練樣本中的子圖取樣如,論文作者定義了交叉熵損失函式:

文字圖Tranformer在文字分類中的應用

 

03 實驗

論文作者為了評估模型的有效性,實驗建立在5個資料庫基礎上,分別是:R52和R8路透社新聞文字分類資料庫、用於醫學文獻分類的Ohsumed資料庫、2個大規模的點評資料庫IMDB和Yelp 2014。基線模型是CNN、LSTM和fastTest,使用了詞語/n-元嵌入平均。

論文作者設定節點的特徵維度為300,初始特徵使用Glove詞向量,訓練了兩層的圖Transformer,隱藏層大小為32和4個注意力頭機制。

小批量SGD演算法使用了Adam 優化器,dropout為0.5,初始學習率為0.001,decay的權重為5。

decay的權重為

文字圖Tranformer在文字分類中的應用

 

從訓練集中隨機選擇10%作為驗證集,若驗證集的損失在10個連續epoch中沒有下降,就停止訓練。

實驗結果如下:

文字圖Tranformer在文字分類中的應用

 

從實驗結果可以看到,基於圖神經網路模型的結果(無論是TextGCN、TextGNN、TensorGCN還是這篇論文作者用到的TG-Transformer),在不同的資料集中都好於傳統的CNN、LSTM和fastText模型方法。

論文作者為了進一步驗證其方法的有效性,進行了如下消融實驗:

(1)去除2個結構編碼且僅僅使用原始特徵嵌入作為輸入,效能的下降說明結構編碼捕捉到了一些有用的異質性圖結構資訊;

(2)去除預訓練詞語嵌入且用隨機向量初始化所有節點,效能下降更大,說明預訓練詞語嵌入和初始化節點特徵在論文模型中的重要性;

(3)訓練了一個新模型去更新和學習批量子圖的節點型別,分類精度只是略微下降,這說明了文字圖模型中的異質性資訊的重要性。

04 結論

總之,這篇論文通過從文字圖中獲取結構和異質性,學習得到有效的節點特徵,並通過小批量的文字圖取樣方法大大地降低了在處理大規模語料庫時的計算和儲存成本。

論文的實驗表明TG-Transformer方法要好於目前的文字分類SOTA方法。

作者在論文中介紹了文字圖的建立、文字圖的取樣,如何通過異質性編碼、WL結構編碼和圖Transformer層來得到文字的類別,並在IMDB、Yelp等語料庫進行了實驗,獲得了比傳統圖模型(如Text-GCN)更好的文字分類實驗結果。

該論文的成果可用於未來的圖神經網路模型預訓練方面的研究。

引用文獻來源

[1] https://arxiv.org/abs/1810.04805v2

[2] https://arxiv.org/abs/1909.05729

 

私信我領取目標檢測與R-CNN/資料分析的應用/電商資料分析/資料分析在醫療領域的應用/NLP學員專案展示/中文NLP的介紹與實際應用/NLP系列直播課/NLP前沿模型訓練營等乾貨學習資源。

 

 

相關文章