依存句法分析器的簡單實現

adnb34g發表於2018-10-17


生成式句法分析指的是,生成一系列依存句法樹,從它們中用特定演算法挑出機率最大那一棵。句法分析中,生成模型的構建主要使用三類資訊:詞性資訊、詞彙資訊和結構資訊。前二類很好理解,而結構資訊需要特殊語法標記,不做考慮。

本文主要利用了詞彙 + 詞性生成聯合機率模型,使用最大生成樹 Prim 演算法搜尋最終結果,得到了一個簡單的漢語依存句法分析器。

開源專案

本文程式碼已整合到 HanLP 中開源:

基本思路

統計詞語 WordA 與詞語 WordB 構成依存關係 DrC 的頻次,詞語 WordA 與詞性 TagB 構成依存關係 DrD 的頻次,詞性 TagA 與詞語 WordB 構成依存關係 DrE 的頻次,詞性 TagA 與詞詞性 TagB 構成依存關係 DrF 的頻次。為句子中詞語 i 與詞語 j 生成多條依存句法邊,其權值為上述四種頻次的綜合(主要利用詞 - 詞頻次,其餘的作平滑處理用)。取邊的權值最大的作為唯一的邊,加入有向圖中。

在有向圖上使用 Prim 最大生成樹演算法,計算出最大生成樹,格式化輸出。

模型訓練

簡單地統計一下清華大學語義依存網路語料,得到如下結果:

 

@ 符號連線起兩個詞彙或詞性,用 <> 括起來的表示詞性,否則是詞彙。如果 @ 後面沒有內容,則表示頻次,否則表示一些依存關係與其出現的頻次。

 

依存句法分析

分詞標註

“我吃米飯”為例,先進行分詞與詞性標註,結果:

 

生成有向圖

由於依存句法樹中有虛根的存在,所以為其加入一個虛節點,這樣一共有四個節點:

 

每個節點都與另外三個構成一條有向邊,一共 4 * 3 = 12 條:

1.  ## 核心 ##/root 到 我 /rr : 未知 10000.0

2.  ## 核心 ##/root 到 吃 /v : 未知 10000.0

3.  ## 核心 ##/root 到 米飯 /n : 未知 10000.0

4.  /rr ## 核心 ##/root : 核心成分 6.410175

5.  /rr 到 吃 /v : 施事 21.061098 經驗者 28.54827 目標 33.656525 受事 37.021248 限定 43.307335 相伴體 48.00737 關係主體 53.115623 內容 53.115623 來源 64.101746

6.  /rr 到 米飯 /n : 限定 22.2052 施事 48.00737 受事 57.170277 目標 57.170277 經驗者 64.101746 連線依存 64.101746

7.  /v ## 核心 ##/root : 核心成分 1.7917595

8.  /v 到 我 /rr : 連線依存 96.688614 介詞依存 107.67474 施事 107.67474

9.  /v 到 米飯 /n : 限定 24.849068

10.  米飯 /n ## 核心 ##/root : 核心成分 37.077995

11.  米飯 /n 到 我 /rr : 連線依存 113.2556

12.  米飯 /n 到 吃 /v : 受事 0.6931472

 

其中 “未知”表示邊不存在,“受事”“施事”表示依存關係,後面的小數表示權值。我對機率取了負對數,所以接下來用加法求最小生成樹即可。

 

最小生成樹

 

關於最小生成樹的 Prim 演算法請參考《最小生成樹演算法初步》,這裡必須有所改動,由於虛根有且只能有一個孩子,所以虛根必須單獨計算:

 

然後就是中規中矩的 Prim 演算法:

 

得出最小生成樹:

格式化輸出

將其轉為 CoNLL 格式輸出:

 

視覺化

使用視覺化工具展現出來:

 

 

結果評測

我沒有進行嚴格的測試,這只是一個玩具級別的漢語依存句法分析器。先來看幾個 good case bad case ——

 

效果比較馬虎,為何這麼說,這是因為分詞的訓練語料和句法分析語料不同,且我自知此方法嚴重依賴詞彙共現,主要是這種二元詞彙生成模型無法充分利用上下文。

短一點的搜尋語句可能還是有微量的利用價值。

TODO

應當採用判別式模型,匯入 SVM 或最大熵作為權值的計算工具,然後使用最大生成樹演算法獲取全域性最優解。

 

文章轉載自 hankcs 的部落格


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31524777/viewspace-2216647/,如需轉載,請註明出處,否則將追究法律責任。

相關文章