史上最大規模ACL大會放榜,百度10篇NLP論文被錄用

pythontab發表於2019-05-23

    近日,自然語言處理(NLP)領域的國際頂級學術會議“國際計算語言學協會年會”(ACL 2019)公佈了今年大會論文錄用結果。根據ACL 2019官方資料,今年大會的有效投稿數量達到2694篇,相比去年的1544篇增長高達75%。其中,國內自然語言處理領軍者百度共有10篇論文被大會收錄,展現出在該領域的技術積澱和國際水準。

國際計算語言學協會(ACL,The Association for Computational Linguistics)成立於1962年,是自然語言處理領域影響力最大、最具活力的國際學術組織之一,自成立之日起就致力於推動計算語言學及自然語言處理相關研究的發展和國際學術交流。百度高階副總裁、AI技術平臺體系(AIG)和基礎技術體系(TG)總負責人王海峰曾於2013年出任 ACL 主席,是ACL五十多年曆史上首位華人主席,也是ACL亞太分會(AACL)的創始主席,ACL會士。研究論文能夠被ACL學術年會錄用,意味著研究成果得到了國際學術界的認可。

百度被錄用的10篇論文,覆蓋了資訊抽取、機器閱讀理解、對話系統、視訊語義理解、機器翻譯等諸多NLP領域的熱點和前沿研究方向,提出了包括基於注意力正則化的ARNOR框架(Attention Regularization based NOise Reduction)、語言表示與知識表示深度融合的KT-NET模型、多粒度跨模態注意力機制、基於端到端深度強化學習的共指解析方法等,在人機互動、智慧客服、視訊理解、機器翻譯等場景中具有很大的應用價值。   

    對於百度而言,能夠在國際學術界取得這樣的成績並不意外。王海峰博士是自然語言處理領域的國際領軍人物之一,其在自然語言處理領域的研究及工程科技成果,得到國際同行的廣泛認可。他領導下的百度自然語言處理團隊,在自然語言處理技術的發展及應用上始終保持領先,一直被視為自然語言處理研究的“第一梯隊”,培養和吸引了海內外很多學術界和產業界的人才。

百度自然語言處理技術全面支援百度業務,是智慧搜尋、資訊流、智慧家居等產品的核心技術,同時積極開放其核心能力,賦能各行各業,助力產業智慧化升級。作為百度大腦開放平臺的核心組成部分,自然語言處理相關技術的日均呼叫量超過千億,廣泛應用於網際網路、金融、醫療、零售、出行、服務等行業。在國內各行業積極擁抱人工智慧技術的大背景下,百度自然語言處理技術正在為中國的產業智慧化程式做出重要貢獻。

 

附:百度被收錄ACL 2019論文概覽


1.  ARNOR: Attention Regularization based Noise Reduction for Distant Supervision Relation Classification

   摘要:遠監督通過知識庫自動獲取標註語料,是關係抽取的關鍵演算法。但是遠監督通常會引入大量噪聲資料,即句子並未表達自動標註的關係。進一步說,基於遠監督學習的模型效果不佳、解釋性差,無法解釋關係的指示詞。

此,我們提出基於注意力正則化的ARNOR框架(Attention Regularization based NOise Reduction)。此方法通過注意力機制,要求模型能夠關注關係的指示詞,進而識別噪聲資料,並通過bootstrap方法逐步選擇出高質量的標註資料,改善模型效果。此方法在關係分類及降噪上均顯著優於此前最好的增強學習演算法。

   應用價值:在文字資訊抽取有廣泛的應用價值。此方法能夠顯著降低對標註資料的依賴,實現低成本的基於知識庫的自動關係學習,未來可落地在醫療、金融等行業資訊抽取中。

 

2.  Enhancing Pre-trained Language Representations with Rich Knowledge for Machine Reading Comprehension

   摘要:機器閱讀理解 (Machine Reading Comprehension) 是指讓機器閱讀文字,然後回答和閱讀內容相關的問題。該技術可以使機器具備從文字資料中獲取知識並回答問題的能力,是構建通用人工智慧的關鍵技術之一,長期以來受到學術界和工業界的廣泛關注。近兩年,預訓練語言表示模型在機器閱讀理解任務上取得了突破性進展。通過在海量無標註文字資料上預訓練足夠深的網路結構,當前最先進的語言表示模型能夠捕捉複雜的語言現象,更好地理解語言、回答問題。然而,正如大家所熟知的,真正意義上的閱讀理解不僅要求機器具備語言理解的能力,還要求機器具備知識以支撐複雜的推理。為此,在論文《Enhancing Pre-trained Language Representations with Rich Knowledge for Machine Reading Comprehension》中,百度開創性地提出了語言表示與知識表示的深度融合模型KT-NET,希望同時藉助語言和知識的力量進一步提升機器閱讀理解的效果。

KT-NET的模型架構如下圖所示。首先,針對給定的閱讀內容和結構化知識圖譜,分別利用語言表示模型和知識表示模型對兩者進行編碼,得到相應的文字表示和知識表示。接下來,利用注意力機制從知識圖譜中自動篩選並整合與閱讀內容高度相關的知識。最後,通過雙層自注意力匹配,實現文字表示和知識表示的深度融合,提升答案邊界預測的準確性。截止到發稿日,KT-NET仍然是常識推理閱讀理解資料集ReCoRD榜單上排名第一的模型,並在此前很長一段時期內都是SQuAD 1.1榜單上效果最好的單模型。

1.png

KT-NET: 語言表示與知識表示的深度融合模型

   應用價值:該項技術可應用於搜尋問答、智慧音響等產品中,直接精準定位使用者輸入問題的答案,並在搜尋結果首條顯著位置呈現或通過語音播報呈現給使用者。

 

3.  Know More about Each Other: Evolving Dialogue Strategy via Compound Assessment

   摘要:現有的基於監督學習的對話系統,缺乏對多輪迴複方向的控制和規劃,通常導致對話中發生重複、發散等問題,使得使用者的互動體驗偏差。 在本文中,我們對多輪對話進行了複合評估 (compound assessment),並基於該評估利用強化學習優化兩個自對話 (self-play) 的機器人,促進生成過程中較好地控制多輪對話的方向。考慮到對話的一個主要動機是進行有效的資訊交換,針對 Persona Chat 問題(兩個人相互對話聊興趣愛好),我們設計了一個較為完善的評估系統,包括對話的資訊量和連貫度兩個主要方面。我們利用複合評估作為 reward,基於策略梯度演算法 (policy gradient),指導優化兩個同構的對話生成機器人之間的對話策略 (dialogue strategy)。該對話策略通過控制知識的選擇來主導對話的流向。 我們公開資料集上進行了全面的實驗,結果驗證了我們提出的方法生成的多輪對話質量,顯著超過其他最優方法。

   應用價值:可應用於對話系統、智慧客服。

 

4.  Proactive Human-Machine Conversation with Explicit Conversation Goal

   摘要:目前的人機對話還處於初級水平,機器大多是被動對話,無法像人類一樣進行充分互動。我們提出了基於知識圖譜的主動對話任務,讓機器像人類一樣主動和使用者進行對話。對話過程中,機器根據知識圖譜主動引領對話程式完成提前設定的話題(實體)轉移目標,並保持對話的自然和流暢性。為此,我們在電影和娛樂任務領域人工標註3萬組共27萬個句子的主動對話語料,並實現了生成和檢索的兩個主動對話基線模型。

2.png

   應用價值:可應用於智慧音響中的對話技能,也可以基於此開發閒聊技能,讓機器主動發起基於知識圖譜的聊天。

 

5.  Multi-grained Attention with Object-level Grounding for Visual Question Answering

   摘要:視覺問答(VQA)是一類跨模態資訊理解任務,要求系統理解視覺圖片資訊,並回答圍繞圖片內容的文字問題。這篇文章提出一種多粒度跨模態注意力機制,在圖片-句子粒度注意力的基礎上,提出更細粒度的物體級別跨模態資訊注意力機制,並給出2種有效的細粒度資訊理解增強的方法。實驗表明我們的方法有助於對複雜影像和細小物體的識別,使系統更準確地定位到回答文字問題所依賴的視覺資訊,從而顯著提升VQA準確率。

   應用價值:可應用於基於多模態資訊和知識圖譜的小視訊內容理解專案。

 

6.   Hubless Nearest Neighbor Search for Bilingual Lexicon Induction

   摘要:這項基礎研究提出了一種提高最近鄰搜尋的方法。該方法有非常漂亮的理論基礎,不僅能顯著提升雙語詞典編纂(Bilingual Lexicon Induction)的準確率,對涉及最近鄰搜尋的很多工都有指導意義。

   應用價值:機器翻譯需要大量對齊的雙語文字作為訓練資料。這一要求在某些情況下不能被滿足,比如小語種文字,專業文獻。雙語詞典編纂在這種情況下能提升翻譯系統的準確率。

7.  STACL: Simultaneous Translation with Implicit Anticipation and Controllable Latency

   摘要:同聲翻譯是人工智慧領域公認的最難問題之一,已經困擾學術界和工業界幾十年了。我們提出了歷史上第一個超前預測和可控延遲的同聲翻譯演算法。去年10月釋出以來,被各大技術外媒廣泛報導,包括 MIT 技術評論、IEEE Spectrum、財富雜誌等。量子位總結報導:“這是2016年百度Deep Speech 2釋出以來,又一項讓技術外媒們如此激動的新進展。”

   應用價值:2018年11月的百度世界大會採用了這項同傳技術,全程同傳翻譯了Robin所有演講,延遲僅為3秒左右,而之前的整句翻譯技術延遲為一整句(可達10秒以上)。同時,翻譯質量也沒有明顯的下降。

 

8.  Simultaneous Translation with Flexible Policy via Restricted Imitation Learning

   摘要:本文旨在提高同聲翻譯的質量。我們去年提出的STACL框架(即上述文章7)雖然簡單有效,但有時不夠靈活。現在我們提出一種基於模仿學習的同聲翻譯演算法,通過模仿本文設計的動態策略,該模型可以實時靈活地決定是否需要等待更多資訊來繼續翻譯,進而在保持低延遲的情況下提高了翻譯質量。

   應用價值:該技術可用於同聲傳譯系統。

 

9.  Robust Neural Machine Translation with Joint Textual and Phonetic Embedding

   摘要:該文章旨在提高翻譯的魯棒性,特別是對同音詞噪音的魯棒性。我們在翻譯的輸入端,通過聯合嵌入的方式,加入輸入單詞對應的發音資訊。實驗結果表明,該方法不僅大大提高了翻譯系統在噪聲情況下的魯棒性,也大幅提高了翻譯系統在非噪聲情況下的效能。

   應用價值:可用於翻譯,特別是語音到語音的同聲傳譯系統。語音翻譯的一個主要難題是語音識別的錯誤太多,而這些錯誤大多是同音詞或發音相似的單詞,此技術可以很大程度上降低這些來自於語音識別的噪音。

 

10. End-to-end Deep Reinforcement Learning Based Coreference Resolution

   摘要:共指解析是資訊抽取任務中不可或缺的組成部分。近期的基於端到端深度神經網路的方法,往往通過優化啟發式的損失函式並做出一系列區域性解析決策,缺乏對整個篇章的理解。本文首次提出了基於端到端深度強化學習的共指解析方法,在同一框架內完成指稱檢測和指稱連結,並且直接優化共指解析的評價指標,在OntoNotes上取得了良好效果。

應用價值:知可用於識圖譜構建,資訊抽取。


相關文章