AAAI-19 (Thirty-Third AAAI Conference on Artificial Intelligence) 將於2019年1月27日至2月1日在美國夏威夷舉行。AAAI是人工智慧領域的頂級國際會議,CCF A類會議,每年舉辦一次。今年AAAI-19大會共計收到7700個有效投稿,其中7095篇論文進入到評審環節,最終有1150篇論文被大會錄用,總錄用率僅為16.2%,創歷史新低。
哈爾濱工業大學社會計算與資訊檢索研究中心共有3篇長文被AAAI-19錄用,下面是論文列表及介紹:
• A Neural Approach for Verb Phrase Ellipsis Resolution
作者:張偉男,張嶽,劉元興,狄東林,劉挺
動詞短語省略(VPE)是一種語言現象,其中一些動詞短語作為句法成分被省略並且通常由輔助動詞引用。先前的工作主要集中在手動構建從輔助詞、句法樹等中提取的特徵。然而,先前的工作並沒有很好地解決特徵表示的優化,連續特徵的有效性和特徵的自動組合。在本文中我們嘗試探索神經模型對VPE消解任務(包括管道和端到端過程)的優勢,並比較統計模型和神經模型之間的差異。我們使用兩種神經模型(MLP和Transformer)分別進行VPE檢測和消解的子任務。實驗結果表明,神經模型在子任務和端到端結果方面均優於最先進的基線。
• Exploring Answer Stance Detection with Recurrent Conditional Attention
作者:袁建華,趙妍妍,秦兵,許靜芳
從社群問答QA對中提取人們對問題的觀點立場傾向性是一個有意思的問題。不同於以往的立場分析任務,我們這裡的target不是給定的實體(entity)或者宣告(claim),而是整個問題,因而更難去建模依賴問題的(target-dependent)回答句表示。為此,我們提出一種迴圈條件注意力結構(Recurrent Conditional Attention),在迴圈閱讀QA對的過程中,提煉Q、A語義表示,挖掘Q-A之間的相互依賴關係,逐步推敲獲得真實的觀點傾向。在人工收集標註的社群問答立場傾向性資料集上(搜狗公司提供),相比四個強基線模型,我們的RCA模型在macro-f1值平均提高2.90%,在micro-f1值上平均提高2.66%。
• Gaussian Transformer: A Lightweight Approach for Natural Language Inference
作者:郭茂盛,張宇,劉挺
自然語言推理 (Natural Language Inference, NLI) 是一個活躍的研究領域,許多基於迴圈神經網路 (RNNs),卷積神經網路 (CNNs),self-attention 網路 (SANs) 的模型為此提出。儘管這些模型取得了不錯的表現,但是基於RNNs的模型難以並行訓練,基於 CNNs 的模型需要耗費大量的引數,基於 self-attention 的模型弱於捕獲文字中的區域性依賴。為了克服這個問題,我們向 self-attention 機制中引入高斯先驗 (Gaussian prior) 來更好的建模句子的區域性結構。接著,我們為NLI任務提出了一個高效的、不依賴迴圈或卷積的網路結構,名為 Gaussian Transformer。它由用於建模區域性和全域性依賴的編碼模組,用於收集多步推理的高階互動模組,以及一個引數輕量的對比模組組成。試驗結果表明,我們的模型在 SNLI 和 MultiNLI 資料集上取得了當前最高的成績,同時大大減少了引數數量和訓練時間。此外,在 HardNLI 資料集上的試驗表明我們的方法較少受到標註的人工痕跡 (Annotation artifacts) 影響。
同時,哈工大訊飛聯合實驗室(公眾號:哈工大訊飛聯合實驗室)的一篇長文被AAAI-19錄用,祝賀!
• Convolutional Spatial Attention Model for Reading Comprehension with Multiple-Choice Questions
作者:陳致鵬,崔一鳴,馬文濤,王士進,胡國平
選擇型的機器閱讀理解需要機器閱讀一個篇章並根據問題從多個候選答案中選出正確答案。本文中,我們提出一種基於卷積空間注意力的模型(Convolutional Spatial Attention,CSA)用來解決中國初高中英文閱讀理解選擇題。該模型可以充分的提取篇章、問題以及選項之間的互資訊,然後使用互資訊增強各自的向量空間表示。除此之外,為了結合不同向量空間的注意力資訊,我們使用不同的卷積視窗動態的從不同的空間注意力矩陣上抽取特徵。實驗結果表明,CSA模型在RACE(中國初高中英文閱讀理解資料)和SemEval-2018 Task11(國際語義評測比賽中的閱讀理解任務)兩個任務都取得了顯著效能提升,證明了我們的方法的創新性和有效性。