創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高

新聞助手發表於2020-07-09

近日,自然語言處理領域(NLP)頂級學術會議 ACL 2020正在火熱舉行,來自創新工場大灣區人工智慧研究院的兩篇論文入選。

這兩篇論文均聚焦中文分詞領域,是深度學習引入知識後的有益嘗試,將該領域近年來廣泛使用的各資料集上的分數全部刷至新高,在工業中也有著可觀的應用前景。創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高"Improving Chinese Word Segmentation with Wordhood Memory Networks"

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高"Joint Chinese Word Segmentation and Part-of-speech Tagging via Two-way Attentions of Auto-analyzed Knowledge"分詞及詞性標註是中文自然語言處理的基本任務,尤其在工業場景對分詞有非常直接的訴求,但當前沒有比較好的一體化解決方案,而且中文分詞普遍存在歧義和未登入詞的難題。

基於此,兩篇論文各自提出了“鍵-值記憶神經網路的中文分詞模型”和“基於雙通道注意力機制的分詞及詞性標註模型”,將外部知識(資訊)創造性融入分詞及詞性標註模型,有效剔除了分詞“噪音”誤導,大幅度提升了分詞及詞性標註效果。

兩篇文章的作者有:華盛頓大學博士研究生、創新工場實習生田元賀,創新工場大灣區人工智慧研究院執行院長宋彥,創新工場科研合夥人張潼,創新工場CTO兼人工智慧工程院執行院長王詠剛等人。

ACL(The Association for Computational Linguistics)國際計算語言學協會是自然語言處理領域影響力最大、最具活力的國際學術組織之一,自1962年創立以來已有58年曆史,其每年夏天舉辦的年會是該領域學術頂會。

與往年不同的是,受新冠疫情影響,ACL 2020全部轉為線上進行,不過這絲毫沒有減弱熱度。根據之前公佈的資料,今年大會投稿數量超過3000篇,共接收 779 篇論文,包括 571 篇長論文和 208 篇短論文,接收率為 25.2%,在全球疫情衝擊下反而是有史以來最盛大的一屆ACL會議,創新工場的技術大牛們也頂著時差連續數晚熬夜參會。

利用記憶神經網路,將中文分詞效能刷到歷史新高

中文分詞目的是在中文的字序列中插入分隔符,將其切分為詞。例如,“我喜歡音樂”將被切分為“我/喜歡/音樂”(“/”表示分隔符)。

中文語言因其特殊性,在分詞時面臨著兩個主要難點。一是歧義問題,由於中文存在大量歧義,一般的分詞工具在切分句子時可能會出錯。例如,“部分居民生活水平”,其正確的切分應為“部分/居民/生活/水平”,但存在“分居”、“民生”等歧義詞。“他從小學電腦技術”,正確的分詞是:他/從小/學/電腦技術,但也存在“小學”這種歧義詞。

二是未登入詞問題。未登入詞指的是不在詞表,或者是模型在訓練的過程中沒有遇見過的詞。例如經濟、醫療、科技等科學領域的專業術語或者社交媒體上的新詞,或者是人名。這類問題在跨領域分詞任務中尤其明顯。

對此,《Improving Chinese Word Segmentation with Wordhood Memory Networks》這篇論文提出了基於鍵-值記憶神經網路的中文分詞模型。

該模型利用n元組(即一個由連續n個字組成的序列,比如“居民”是一個2元組,“生活水平”是一個4元組)提供的每個字的構詞能力,透過加(降)權重實現特定語境下的歧義消解。並透過非監督方法構建詞表,實現對特定領域的未標註文字的利用,進而提升對未登入詞的識別。

例如,在“部分居民生活水平”這句話中,到底有多少可能成為詞的組塊?單字可成詞,如“民”;每兩個字的組合可能成詞,如“居民”;甚至四個字的組合也可能成詞,例如“居民生活”。

” → 單字詞 

“居” → 詞尾

生”→ 詞首

“居生活” → 詞中

根據構詞能力,找到所有的成片語合

把這些可能成詞的組合全部找到以後,加入到該分詞模型中。透過神經網路,學習哪些詞對於最後完整表達句意的幫助更大,進而分配不同的權重。像“部分”、“居民”、“生活”、“水平”這些詞都會被突出出來,但“分居”、“民生”這些詞就會被降權處理,從而預測出正確的結果。

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高

鍵-值記憶神經網路分詞模型

在“他從小學電腦技術” 這句話中,對於有歧義的部分“從小學”(有“從/小學”和“從小/學”兩種分法),該模型能夠對“從小”和“學”分配更高的權重,而對錯誤的n元組——“小學”分配較低的權重


創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高為了檢驗該模型的分詞效果,論文進行了嚴格的標準實驗和跨領域實驗。

實驗結果顯示,該模型在5個資料集(MSR、PKU、AS、CityU、CTB6)上的表現,均達了最好的成績(F值越高,效能越好)。(注:所選擇的五個資料集是中文分詞領域目前全世界唯一通用的標準資料集)

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高創新工場大灣區人工智慧研究院執行院長宋彥表示,與前人的模型進行比較發現,該模型在所有資料集上的表現均超過了之前的工作,“把中文分詞領域廣泛使用的標準資料集上的效能全部刷到了新高。”

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高和前人工作的比較

在跨領域實驗中,論文使用網路部落格資料集(CTB7)測試。實驗結果顯示,在整體F值以及未登陸詞的召回率上都有比較大提升。創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高

“雙通道注意力機制”,有效剔除“噪音”誤導

第二篇論文《Joint Chinese Word Segmentation and Part-of-speech Tagging via Two-way Attentions of Auto-analyzed Knowledge》提供了一種基於雙通道注意力機制的分詞及詞性標註模型。

中文分詞和詞性標註是兩個不同的任務。詞性標註是在已經切分好的文字中,給每一個詞標註其所屬的詞類,例如動詞、名詞、代詞、形容詞。詞性標註對後續的句子理解有重要的作用。

詞性標註中,歧義仍然是個老大難的問題。例如,對於“他要向全班同學報告書上的內容”中,“報告書”的正確的切分和標註應為“報告_VV/書_N”。但由於“報告書”本身也是一個常見詞,一般的工具可能會將其標註為“報告書_NN”。

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高

利用句法知識進行正確的詞性標註

句法標註本身需要大量的時間和人力成本。在以往的標註工作中,使用外部自動工具獲取句法知識是主流方法。在這種情況下,如果模型不能識別並正確處理帶有雜音的句法知識,很可能會被不準確的句法知識誤導,做出錯誤的預測。

例如,在句子“他馬上功夫很好”中,“馬”和“上”應該分開(正確的標註應為“馬_NN/上_NN”)。但按照一般的句法知識,卻可能得到不準確的切分及句法關係,如“馬上”。

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高史丹佛大學的自動句法分析工具結果,分成了“馬上”

針對這一問題,該論文提出了一個基於雙通道注意力機制的分詞及詞性標註模型。該模型將中文分詞和詞性標註視作聯合任務,可一體化完成。模型分別對自動獲取的上下文特徵和句法知識加權,預測每個字的分詞和詞性標籤,不同的上下文特徵和句法知識在各自所屬的注意力通道內進行比較、加權,從而識別特定語境下不同上下文特徵和句法知識的貢獻。

這樣一來,那些不準確的,對模型預測貢獻小的上下文特徵和句法知識就能被識別出來,並被分配小的權重,從而避免模型被這些有噪音的資訊誤導。

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高基於“雙通道注意力機制”的分詞及詞性標註即便在自動獲取的句法知識不準確的時候,該模型仍能有效識別並利用這種知識。例如,將前文有歧義、句法知識不準確的句子(“他馬上功夫很好”),輸入該雙通道注意力模型後,便得到了正確的分詞和詞性標註結果。  創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高分詞及詞性標註例項

為了測試該模型的效能,論文在一般領域和跨領域分別進行了實驗。

一般領域實驗結果顯示,該模型在5個資料集(CTB5,CTB6,CTB7,CTB9,Universal Dependencies)的表現(F值)均超過前人的工作,也大幅度超過了史丹佛大學的 CoreNLP 工具,和伯克利大學的句法分析器。

即使是在與CTB詞性標註規範不同的UD資料集中,該模型依然能吸收不同標註帶來的知識,並使用這種知識,得到更好的效果。

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高該模型在所有資料集上均超過了之前的工作

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高CTB5(CTB5是使用最多的中文分詞和詞性標註的資料集)結果而在跨領域的實驗中,和史丹佛大學的 CoreNLP 工具相比,該模型也有近10個百分點的提升。創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高

跨領域分詞實驗(對話測試集)的結果

主動引入和分辨知識,實現中文分詞技術突破

中文分詞在中國科研領域已經有幾十年的歷史。最初的中文分詞是基於詞典構建,詞典的好壞會直接影響到最後分析的效果。如果某個新詞在詞典裡沒有,那麼模型是死活都分不出來的。

這種方式的侷限性還在於,詞典和分詞兩件事情中間始終有一條鴻溝,儘管詞典可以編撰得非常全面,但在處理分詞的時候,因為每一句話都有上下文語境,往往會產生多種不同的切分方法,從而無法有效地在當前語境下對分詞結構進行恰當的指導。

從2003年開始,分詞方法出現了新的突破。研究人員提出了打標籤的方式,透過給每一個字打詞首、詞尾、詞中的標籤,不再需要構建詞典,大幅度提升了未登入詞的召回效果。

到了2014年左右,深度學習神經網路開始被廣泛應用到中文分詞中,打標籤的模型從之前的淺層學習變成了深度學習,但演算法本質沒有發生變化,所以提升作用並不太大。

近兩年,學界開始研究怎麼在打標籤的過程中加入外部知識和資訊。創新工場的這兩篇文章就是沿著這個路徑,用記憶神經網路的方式記錄對分詞結果有影響的 n元組,並引入對詞性標註有影響的句法知識,將分詞結果和自動獲得的知識銜接起來,既發揮了神經網路的優勢,也把知識的優勢用上,實現了分詞技術上小而有效的改進和突破。

宋彥表示,“從技術創新的角度,我們的貢獻主要有兩點。一是在現有技術的基礎上,建立了一個一體化的模型框架,使用非監督方法構建詞表,並把知識(資訊)融入進來,使用更高層次的句法知識,來幫助詞性標註,起到'他山之石,可以攻玉’的效果。”

“二是主動吸收和分辨不同的外部知識(資訊)。透過鍵-值記憶神經網路和雙通道注意力機制,進行動態權重的分配,能夠有效分辨知識,區分哪些是有效的,哪些是無效的。雖然這些知識是自動獲取的、不準確的,但‘三個臭皮匠,頂個諸葛亮’,經過有效利用,總能湊出一些有用的資訊。如何實現模型的主動吸收和分辨,就變得更加重要。”

據瞭解,今年的ACL大會,在分詞領域一共收錄了18篇論文,創新工場人工智慧工程院同時有2篇入選,也表現出ACL官方對這一貢獻的認可。

具備跨領域分詞能力,提升工業應用效率

中文分詞和詞性標註是最底層的應用,對於接下來的應用和任務處理非常重要。例如對於文字分類、情感分析,文字摘要、機器翻譯等,分詞都是不可或缺的基本“元件”。

宋彥表示,做此項研究的目的是主要為了擴充其工業場景的應用,正確的分詞能夠平衡公司應用開發的效率和效能,同時方便人工干預及(預)後處理。

這也是創新工場人工智慧工程院的努力方向之一。工程院成立於2016年9月,宗旨是銜接科技創新和行業賦能,做嫁接科研和產業應用的橋樑,為行業改造業務流程、提升業務效率。

工程院下設北京總部、南京研究院和大灣區研究院。大灣區研究院再下設資訊感知和理解實驗室,專注於對自然語言處理(NLP)領域的研究。執行院長宋彥本人也有超過15年的NLP領域的科研經驗。創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高創新工場人工智慧工程院架構圖“在工業場景使用的時候,跨領域的模型能力是一個非常直接的訴求。”宋彥表示,在某個領域的訓練模型,大機率也需要應用到其他領域。

“如何在新領域缺少資料,或者新領域只有少量未標註資料的情況下,實現模型的冷啟動,依然是項巨大的挑戰。如果能利用外部知識,提高模型效能,就能有效地召回很多在訓練集中沒有出現過的新詞。”

例如搜尋引擎的廣告系統,最初也是透過組詞匹配的方式,在某個特定領域訓練其分詞模型,但在進入一個新的領域時,例如從新聞領域進入醫療領域或體育領域,效果往往會大打折扣,甚至頻頻出錯。

而使用跨領域特性後,廣告系統在進入新領域時,便無需額外的資料,就可以對它進行比較準確的分詞和標註,從而有效匹配廣告和客戶,大大提升系統執行的效率和穩定性。

目前,這兩篇論文的工具都已經開源,在下面兩個連結中,可以找到對應的所有程式碼和模型,各位朋友可按需自取:

分詞工具: https://github.com/SVAIGBA/WMSeg

分詞及詞性標註工具: https://github.com/SVAIGBA/TwASP

創新工場兩篇論文入選ACL 2020,將中文分詞資料刷至新高


相關文章