CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

機器之心發表於2019-10-21

10 月 18 日-20 日,第十八屆中國計算語言學大會(The Eighteenth China National Conference on Computational Linguistics,以下簡稱「CCL 2019」)在昆明舉行。會議以「中國境內各類語言的計算處理」為主題,吸引了眾多領域內專家和業界人士前來參會。

CCL 大會是國內自然語言處理領域的高水平會議,每年都會有 NLP 領域的專家匯聚一堂。本次大會主辦單位為中文資訊學會,組織方為清華大學人工智慧研究院。開幕式上,中國中文資訊學會名譽理事長李生教授、昆明理工大學副校長楊斌、清華大學孫茂松教授、復旦大學黃萱菁教授做了致辭。

CCL 2019 大會介紹

CCL 會議創辦於 1991 年,由中國中文資訊學會計算語言學專業委員會主辦,是國內自然語言處理領域權威性最高、規模和影響最大的學術會議之一,會議內容主要聚焦於中國境內各類語言的智慧計算和資訊處理,包括特邀報告、論文展示、系統展示、技術評測、前沿技術講習班、國際前沿動態綜述等形式,為研討和傳播計算語言學最新的學術和技術成果提供了交流平臺。

近三年來,CCL 累計有 16 篇優秀錄用論文成功推薦至《中國科學》、《清華大學學報》(自然科學版)發表。據瞭解,這 16 篇優秀錄用論文近六年的累計網路下載量高達 42.4 萬次,呈現出較大的學術影響力。

據 CCL 2019 官網顯示,本次會議共收到論文投稿 371 篇(包括中文 237 篇,英文 134 篇);最終錄用 146 篇論文(中文 90 篇,英文 56 篇)。總體錄用率達到 39.35%。其中,中文論文錄用率 37.87%,英文論文錄用率 41.79%。

CCL 2019 論文錄用列表:http://www.cips-cl.org/static/CCL2019/paper-accepted.html

據悉,本屆大會允許論文作者平行投稿——即可以將投稿論文同時投到其他 NLP 大會上,只要另一會議也有類似的平行投稿政策,這無疑在吸收了優秀論文的同時,使這些論文可以更好地推向海外研究圈。

除了設立最佳論文獎(同時遵循寧缺毋濫的原則)之外,自 2017 年開始,CCL 大會還增設了「最佳張貼報告展示獎」和「最佳系統展示獎」。

獲獎情況

本次大會共設立了三個獎項,分別是「最佳論文獎」、「最佳張貼報告展示獎」和「最佳系統展示獎」,大會還宣佈了最佳博士學位論文的獲獎情況。

最佳論文(英文)

最佳論文獎共有兩篇獲獎論文。包括復旦大學邱錫鵬等關於 BERT 微呼叫於文字分類任務的論文,以及福州大學等機構研究者提出的重建選項的觀點型閱讀理解任務模型。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

論文 1:How to Fine-Tune BERT for Text Classification?

  • 作者:Chi Sun、Xipeng Qiu、Yige Xu、Xuanjing Huang

  • 機構:復旦大學

  • 論文連結:https://arxiv.org/abs/1905.05583

摘要:預訓練語言模型已經在學習通用語言表示上證明了存在的價值。作為一個 SOTA 預訓練語言模型,BERT(基於 Transformer 的雙向編碼表示)在許多語言理解任務上取得了驚人的結果。在本文中,研究者進行了一項費時費力的實驗,用於探索在 BERT 上進行各種微調方法,以使其用於文字分類任務上。最終,研究者提出了一個通用的 BERT 微調方法。論文提出的方法在 8 個常見的文字分類資料集上取得了新的 SOTA 結果。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

圖 1:三種通用的 BERT 微調方法(用不同顏色的箭頭標出)。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

表 6:在 8 個資料集上,微調後的 BERT 模型的測試錯誤率。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

論文 2:Reconstructed Option Rereading Network for Opinion Questions Reading Comprehension

  • 作者:Delai Qiu、Liang Bao、Zhixing Tian、Yuanzhe Zhang、Kang Liu、Jun Zhao、Xiangwen Liao

  • 機構:福州大學、中國科學院大學、中國科學院自動化所

  • 論文連結(可在 11 月 16 日前免費下載):https://link.springer.com/chapter/10.1007%2F978-3-030-32381-3_8

閱讀理解單選題任務近來逐漸受到關注。這一任務要求極其能夠根據和問題相關的文字,從一些選項中選出正確的答案。之前的研究工作主要集中於陳述性的事實問題,而忽略了觀點型的問題。在觀點型問題中,觀點經常以情緒短語,如「好」或者「壞」來表現。這使得之前的工作無法對文字中的互動資訊進行建模。因此,研究者提出了一個名為 RORN(Reconstructed Option Rereading Network)的模型。模型可以基於問題首先重建選項。然後,模型利用重建的選項生成其表示。最後,將資訊輸入到最大池化層中,對每個觀點進行排序打分。實驗說明,這一模型在中文觀點問題機器閱讀理解比賽中取得了 SOTA 的效能表現。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

圖 1:閱讀理解單選題示例。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

圖 2:RORN 模型的架構。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

表 2:一些由模型重建出來的選項。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

表 3:模型的效能表現對比。使用了 https://challenger.ai/competition/oqmrc2018 提供的資料集。

最佳論文(中文)

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

論文 1:結合規則蒸餾的情感原因發現方法

  • 作者:鮑建竹、藍恭強、巫繼鵬、徐睿峰

  • 機構:哈爾濱工業大學 (深圳) 

  • 論文連結:http://cips-cl.org/static/anthology/CCL-2019/CCL-19-056.pdf

摘要:現有的基於深度學習的情感原因發現方法往往缺乏對文字子句之間關係的建模,且存在學習過 程不易控制、可解釋性差和對高質量標註資料依賴的不足。針對以上問題,本文提出了一種結合規則蒸餾 的情感原因發現方法。該方法使用層次結構的雙向門限迴圈單元 (Bi-GRU) 捕獲詞級的序列特徵和子句之間 的潛層語義關係,並應用注意力機制學習子句與情感關鍵詞之間的相互聯絡,同時結合相對位置資訊和殘 差結構得到子句的最終表示。在此基礎上,透過知識蒸餾技術引入邏輯規則,從而使該模型具有一定的可 控性,最終實現結合邏輯規則的情感原因發現。在中文情感原因發現資料集上的實驗結果顯示,該方法達到了目前已知的最優結果,F1 值提升約 2 個百分點。

論文 2:漢語複合名詞短語語義關係知識庫構建與自動識別研究

  • 作者:張文敏、李華勇、邵豔秋

  • 機構:北京語言大學

  • 論文連結:http://cips-cl.org/static/anthology/CCL-2019/CCL-19-077.pdf

摘要:漢語複合名詞短語因其使用範圍廣泛、結構獨特、內部語義複雜的特點,一直是語言學分析和中文資訊處理領域的 重要研究物件。國內關於複合名詞短語的語言資源極其匱乏,且現有知識庫只研究名名複合形式的短語,包含動詞的複合名詞短 語的知識庫構建仍處於空白階段,同時現有的複合名詞短語知識庫大部分脫離了語境,沒有句子級別的資訊。

針對這一現狀,該文從多個領域蒐集語料,建立了一套新的語義關係體系標註,構建了一個具有相當規模的帶有句子資訊的複合名詞語義關係知識庫。該庫的標註重點是標註句子中複合名詞短語的邊界以及短語內部成分之間的語義關係,總共收錄 27007 條句子。該文對標註後的知識庫做了詳細的計量統計分析。最後基於標註得到的知識庫,該文使用基線模型對複合名詞短語進行了自動定界和語義分類實驗,並對實驗結果和未來可能的改進方向做了總結分析。

其他獲獎情況

本次大會還公佈了中國中文資訊學會(CIPS)最佳博士學位論文獲獎和提名獎的情況,包括中科院計算所、自動化所,以及山西大學、哈工大、清華、北京語言大學等機構的博士生論文獲獎或獲得了提名。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

此外,CCL 2019「最佳張貼報告展示獎」和「最佳系統展示獎」的獲獎論文情況也在 20 日下午的會議上進行了公佈。其中,清華大學構建的「九歌」詩歌創作系統獲得了最佳系統展示獎。只需要輸入關鍵字或句子等資訊,該系統就能直接生成絕句、藏頭詩、律詩、詞等創作文體。

CCL 2019 各大獎項揭曉,復旦大學、哈工大、北語等團隊獲最佳論文獎

參考連結

http://www.cips-cl.org/static/CCL2019/index.html

相關文章