揭開知識庫問答KB-QA的面紗3·資訊抽取篇

PaperWeekly發表於2017-08-15

作者丨劉大一恆

學校丨四川大學博士生

揭開知識庫問答KB-QA的面紗3·資訊抽取篇

本期我們將介紹 KB-QA 傳統方法之一的資訊抽取(Information Extraction),我們以一個該方法的經典代表作為例,為大家進一步揭開知識庫問答的面紗。該方法來自約翰·霍普金斯大學 Yao X, Van Durme B. 的 Information Extraction over Structured Data: Question Answering with Freebase(文章發表於 2014 年的 ACL 會議)。 

該類方法通過提取問題中的實體,通過在知識庫中查詢該實體可以得到以該實體節點為中心的知識庫子圖,子圖中的每一個節點或邊都可以作為候選答案。通過觀察問題,依據某些規則或模板進行資訊抽取,得到表徵問題和候選答案特徵的特徵向量,建立分類器,通過輸入特徵向量對候選答案進行篩選,從而得出最終答案。


1. 你是如何回答問題的

想一想,如果有人問你 “what is the name of Justin Bieber brother?" ,並且給你一個知識庫,你會怎麼去找答案?顯然,這個問題的主題(Topic)詞就是 Justin Bieber,因此我們會去知識庫搜尋 Justin Bieber 這個實體,尋找與該實體相關的知識(此時相當於我們確定了答案的範圍,得到了一些候選答案)。

接下來,我們去尋找和實體關係 brother 相關的實體(事實上 freebase 裡沒有 brother 這個實體關係,而是 sibling,我們需要進行一個簡單的推理),最後得到答案。 

而資訊抽取的方法,其靈感就是來自於剛才我們的這種思考方式。

2. 如何對問題進行資訊抽取

還是這個例子,讓我們先放慢腳步,想想我們人類是怎麼對這個問題進行資訊抽取和推理的。首先,我們會潛意識地對這個句子結構進行分析,下圖是 “what is the name of Justin Bieber brother?" 這個問句的語法依存樹(Dependency tree),如果你對依存樹不瞭解,可以把它理解成是一種句子成分的形式化描述方式。

揭開知識庫問答KB-QA的面紗3·資訊抽取篇

我們首先通過依存關係 nsubj (what, name) 和 prep_of (name, brother) 這兩條資訊知道答案是一個名字,而且這個名字和 brother 有關,當然我們此時還不能判斷是否是人名。

進一步,通過 nn (brother, justin bieber) 這條資訊我們可以根據 justin bieber 是個人,推匯出他的 brother 也是個人,綜合前面的資訊,我們最終推理出來我們的答案應該是個人名。(注:這裡 nsubj 代表名詞性主語,prep_of 代表 of 介詞修飾,nn 代表名片語合)當確定了最終答案是一個人名,那麼我們就很容易在備選答案中篩選出正確答案了。 

我們剛才進行的步驟,實際上就是在對問題進行資訊抽取,接下來,讓我們看看這篇文章具體是怎麼實施的。 

首先我們要提取的第一個資訊就是問題詞(question word,記作 qword),例如 who, when, what, where, how, which, why, whom, whose,它是問題的一個明顯特徵 。

第二個關鍵的資訊,就是問題焦點(question fucus,記作 qfocus),這個詞暗示了答案的型別,比如 name/time/place,我們直接將問題詞 qword 相關的那個名詞抽取出來作為 qfocus,在這個例子中,what name 中的 name 就是 qfocus。

第三個我們需要的資訊,就是這個問題的主題詞(word topic,記作 qtopic),在這個句子裡 Justin Bieber 就是 qtopic,這個詞能夠幫助我們找到 freebase 中相關的知識,我們可以通過命名實體識別(Named Entity Recognition,NER)來確定主題詞,需要注意的是,一個問題中可能存在多個主題詞。

最後,第四個我們需要提取的特徵,就是問題的中心動詞(question verb ,記作 qverb),動詞能夠給我們提供很多和答案相關的資訊,比如 play,那麼答案有可能是某種球類或者樂器。我們可以通過詞性標註(Part-of-Speech,POS)確定 qverb。

通過對問題提取問題詞 qword,問題焦點 qfocus,問題主題詞 qtopic 和問題中心動詞 qverb這四個問題特徵,我們可以將該問題的依存樹轉化為問題圖(Question Graph),如下圖所示:

揭開知識庫問答KB-QA的面紗3·資訊抽取篇

具體來說,將依存樹轉化為問題圖進行了三個操作:

1)將問題詞 qword,問題焦點 qfocus,問題主題詞 qtopic 和問題中心動詞 qverb 加入相對應的節點中,如 what -> qword=what。 

2)如果該節點是命名實體,那就把該節點變為命名實體形式,如 justin -> qtopic=person (justin 對應的命名實體形式是 person)。這一步的目的是因為資料中涉及到的命名實體名字太多了,這裡我們只需要區分它是人名 地名 還是其他型別的名字即可。 

3)刪除掉一些不重要的葉子節點,如限定詞(determiner,如 a/the/some/this/each 等),介詞(preposition)和標點符號(punctuation)。

 從依存樹到問題圖的轉換,實質是就是對問題進行資訊抽取,提取出有利於尋找答案的問題特徵,刪減掉不重要的資訊。

3. 如何構建特徵向量對候選答案進行分類

在候選答案中找出正確答案,實際上是一個二分類問題(判斷每個候選答案是否是正確答案),我們使用訓練資料問題-答案對,訓練一個分類器來找到正確答案。那麼分類器的輸入特徵向量怎麼構造和定義呢? 

特徵向量中的每一維,對應一個問題-候選答案特徵。每一個問題-候選答案特徵由問題特徵中的一個特徵,和候選答案特徵的一個特徵,組合(combine)而成。 

問題特徵:我們從問題圖中的每一條邊 e(s,t),抽取 4 種問題特徵:s,t,s|t,和 s|e|t。如對於邊 prep_of(qfocus=name,brother),我們可以抽取這樣四個特徵:qfocus=what,brother,qfocus=what|brother  和 qfocus=what|prep_of|brother。 

候選答案特徵:對於主題圖中的每一個節點,我們都可以抽取出以下特徵:該節點的所有關係(relation,記作 rel),和該節點的所有屬性(property,如 type/gender/age)。(注:我在揭開知識庫問答KB-QA的面紗1·簡介篇中對知識庫中屬性和關係的區別進行了講解)

對於 Justin Bieber 這個 topic 我們可以在知識庫找到它對應的主題圖,如下圖所示:

揭開知識庫問答KB-QA的面紗3·資訊抽取篇

(注:圖中虛線表示屬性,實線表示關係,虛線框即屬性值,實現框為 topic node。在知識庫中,如果同一個 topic 節點的同一個關係對應了多個實體,如 Justin Bieber 的 preon.sibing_s 關係可能對應多個實體,那麼 freebase 中會設定一個虛擬的dummy node,來連線所有相關的實體) 

例如,對於 Jaxon Bieber 這個 topic 節點,我們可以提取出這些特徵:gender=male,type=person,rel=sibling 。可以看出關係和屬性都刻畫了這個候選答案的特徵,對判斷它是否是正確答案有很大的幫助。 

問題-候選答案特徵:每一個問題-候選答案特徵由問題特徵中的一個特徵和候選答案特徵中的一個特徵,組合(combine)而成(組合記作 | )。

我們希望一個關聯度較高的問題-候選答案特徵有較高的權重,比如對於問題-候選答案特徵 qfocus=money|node type=currency(注意,這裡 qfocus=money 是來自問題的特徵,而 node type=currency 則是來自候選答案的特徵),我們希望它的權重較高,而對於問題-候選答案特徵 qfocus=money|node type=person 我們希望它的權重較低。 

接下來我們用 WebQuestion 作為訓練資料,使用 Stanford CoreNLP 幫助我們對問題進行資訊抽取。訓練集中約有 3000 個問題,每個問題對應的主題圖約含 1000 個節點,共計有 3 million 的節點和 7 million 種問題-候選答案特徵。

作者用帶 L1 正則化的邏輯迴歸(logistic regression)作為分類器,訓練每種問題-候選答案特徵的權值(L1 正則化的邏輯迴歸很適合處理這種稀疏的特徵向量,作者表示其效果好於感知機 Percptron 和支援向量機 SVM)。 訓練完畢後,得到了 3 萬個非零的特徵,下表列出了部分特徵和它相應的權值,可以看出問題特徵和候選答案特徵相關度較高時,其權值較高。

揭開知識庫問答KB-QA的面紗3·資訊抽取篇

因此,在使用的時候,對於每一個候選答案,我們抽取出它的特徵(假設有 k 個特徵)後,再和問題中的每一個特徵兩兩結合(假設有 m 個特徵),那麼我們就得到了 k*m 個問題-候選答案特徵,因此我們的輸入向量就是一個 k*m-hot(即 k*m 維為 1,其餘維為 0)的 3 萬維向量。 

在提取候選答案的特徵時,我們對每個實體提取了它的關係和屬性,在論文中,作者還額外提取了一個更強力的特徵,即每一個關係 R 和整個問題 Q 的關聯度,可表示為概率的形式 P(R|Q)。那麼這個概率如何求解呢?作者採用樸素貝葉斯,backoff model(即揭開知識庫問答KB-QA的面紗3·資訊抽取篇)的思想和假設,對於揭開知識庫問答KB-QA的面紗3·資訊抽取篇這種複合關係,people.person.parents,也採用 backoff 的思想(即揭開知識庫問答KB-QA的面紗3·資訊抽取篇)這個概率進行近似,即:

揭開知識庫問答KB-QA的面紗3·資訊抽取篇

作者通過 freebase 知識庫和兩個資料集分別對上面的概率進行統計估算。第一個資料集是 Berant J, Chou A, Frostig R, et al. 中 Semantic Parsing on Freebase from Question-Answer Pairs 使用到的利用 ReVerbopen IE system 在 ClueWeb09 抽取的三元組資料集,包含了 15 million 個三元組,該資料集記作 ReverbMapping,第二個資料集是含 1.2 billion 對齊對(alignment pairs)的 CluewebMapping

值得一提的是,這些資料中並不直接包含知識庫中的關係 rel,那麼要如何去估算 P(w|r) 呢?作者採用了一個近似的辦法,如果一個資料集中的三元組包含的兩個實體和知識庫中的關係 r 包含的兩個實體一樣,就認為這個三元組中存在該關係 r,計數加一。 

在兩個資料集上分別完成統計和計算後,作者使用了 WebQuestion 進行了測試,分別計算給定每一個問題 Q,答案對應的 relation,它們的概率和其他 relation 相比,排名在 top1, top5, top10, top50, top100 和 100 之後這六種情況的百分比,如下表所示:

揭開知識庫問答KB-QA的面紗3·資訊抽取篇

可以看出當使用 ClueWebMapping 這個超大資料集訓練後,給定一個問題,每次選擇概率最高的 rel 時,有 19% 的正確率。因此,作者對於主題圖中的每一個候選答案,增加這樣一種特徵,即該候選答案對應的每一個關係 rel,其概率 P(rel|Q) 在所有關係中的排名情況(如 top1、top3、top5、top50、top100 等等),比如特徵 income_relation_rank=top_3(這裡因為 relation 是有方向的,所以用 income 字首對方向加以區分)。 

至此,我們已經搞清楚了這篇文章方法涉及到的所有元素:問題特徵候選答案特徵,每個候選答案和問題的特徵向量以及分類器。最後,我們再簡單介紹下實驗。

4. 論文實驗與總結


候選答案的主題圖是根據問題中的主題詞確定的,而一個問題可能包含多個主題詞。作者先通過命名實體識別提取問題中的所有命名實體(如果提取不到一個命名實體,則使用名詞短語代替),將所有命名實體輸入到 Freebase Search API 中,選取返回排名最高的作為最終的主題詞,使用 Freebase Topic API 得到相應的主題圖。 

當然使用 Freebase Search API 這個方法可能會錯過真正和答案相關的主題詞(topic),作者也測試了模型在真實的主題詞(Gold Retrieval)下的 F1 score,結果如下: 

揭開知識庫問答KB-QA的面紗3·資訊抽取篇

可以看出,資訊抽取的這個方法,相比我在揭開知識庫問答KB-QA的面紗2·語義解析篇中介紹的 Semantic Parsing on Freebase from Question-Answer Pairs 方法在 F1-score 下有較高的提升,到達了 42.0 的 F1-score。 

資訊抽取的辦法,總體來說涉及到了不少 linguistic 的知識,比較符合人類的直覺。雖然也涉及到了很多手工和先驗知識的東西,但個人認為它的思想還是很不錯的。 

作者在構造候選答案特徵時,引入了和 P(R|Q) 相關的特徵,這個思路是一個很好的思路,但是對 P(R|Q) 的估計方式總體來說還是比較粗暴(比如使用 backoff),個人認為可以使用 Deep Learning 的方法進行提升。

相關文章