對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

AI科技大本營發表於2019-03-01

歡迎關注AI科技大本營掘金專欄,持續獲得更多幹貨內容

記者 | Jane

出品 | AI 科技大本營

AI 科技大本營按:2018 年 7月 13 日——19 日,ICJAI 2018 在瑞典首都斯德哥爾摩順利召開。IJCAI(International Joint Conference on Artificial Intelligence)人工智慧領域頂級學術會議之一,涵蓋領域包括機器學習、影像識別、語音技術、自然語言處理、視訊技術等,對全球人工智慧行業有著巨大的影響力。

IJCAI 的評審歷來都很嚴格,今年投稿數量更是達到了 3470 篇,接收論文 710 篇,接收率只有 20.5%(同比 2017 年, 2540 篇投稿,接收 660 篇,約26%的接收率);而來自國內的論文更是近達半數之多,可見國內研究的活躍。與往年不同,今年 IJCAI 沒有評選出 Best Paper,但是選出了 7 篇 Distinguished Paper ,其中有 4 篇都是來自國內的研究成果。

今天 AI 科技大本營為大家採訪到了本次 IJCAI 大會 Distinguished Paper 《Commonsense Knowledge Aware Conversation Generation with Graph Attention》(具有圖注意力的常識知識感知會話生成系統)的第一作者——來自清華大學的博士研究生周昊,和大家分享其中更多的故事。

其實在去年,周昊和所在的課題組就有一項研究成果——Emotional Chatting Machine(情緒聊天機)獲得了國內外的高度關注,MIT 科技評論、衛報和 NIVIDIA 就相繼進行了追蹤和報導。

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

(來源於 MIT Technology Review)

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

(此節選部分內容來源於 MIT Technology Review)

計算機無法衡量對話內容的情感,對話人的情緒,也就無法和人進行共情。而一個沒有情商的聊天機器人反而會成為一個話題終結者。周昊和他所在的課題組就開發了一個能夠評估對話內容情感並作出相應回應的聊天機器人,這項工作開啟了通往具有情感意識的新一代聊天機器人的大門。

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

他們在研究中所提出的情緒聊天機(ECM),不僅可以在內容上給出適當的反應,而且能在情感上給出適當的反應(情緒一致)。這項工作已經在 TensorFlow 中實現,我們在文末附上了關於這項研究工作的論文和 GitHub 訪問連結。

IJCAI 會議回來後,AI 科技大本營約到了周昊,請他談了談這次獲獎的一些感悟、研究成果和心得,在此分享給 AI 科技大本營的讀者們。

以下為對話內容,AI 科技大本營做了不改變原意的整理。

AI 科技大本營:今年國內在 ICJAI 會議上的成果很多,是什麼時候收到通知被評為 Distinguished Paper的?還記得當時是什麼心情嗎?

周昊我是在開幕式的時候才知道被評為Distinguished Paper 的,之前沒有收到任何通知,當時就覺得比較幸運吧,論文能被評審認可。

AI 科技大本營:現在 NLP 領域中還有很多有待突破的問題,大家也都很想知道關於更有價值的研究方向?你覺得未來新的研究方向會有什麼?

周昊:在會議上聽了 LeCun 的演講《 Learning World Models: the Next Step Towards AI》,感覺 World Models 或者 Commonsense Knowledge 在機器學習中的應用可能會成為新的研究方向。

AI 科技大本營:你在這次的研究工作中也是引入了 Commonsense Knowledge (常識知識),從提出到實現的這個研究過程,遇到過什麼問題嗎?可以和大家分享一下嗎?

周昊:當時最早開始想做知識驅動的對話生成模型,是因為對話或者語言其實是一種知識交流的媒介,而現有的從大規模語料中學習的生成式對話模型儘管能學習到不錯的語法知識,但是對語言背後本質的知識卻缺少建模能力。所以我們設計了這個引入常識知識的對話模型想利用知識驅動對話生成。我們當時的想法是利用知識推理的一種方式,可以從使用者問題的知識子圖出發,選擇一度鄰域的子圖中概率最大的實體作為下一個關鍵節點,繼續擴充其一度鄰域的子圖選擇概率最大的實體,這樣一步步推理下去會得到一個推理路徑,作為我們對話生成的知識資訊,這也是我們人類進行知識推理的方式。然而在實際工作中,我們發現無論是常識知識圖還是對話語料中都存在許多噪聲,並且資料稀疏性也是個大問題。所以我們最後選擇了一度鄰域子圖進行資料集的過濾與建立。感興趣的同學可以繼續探索知識推理在對話中的應用。

AI 科技大本營:能用一句話來介紹一下圖注意力機制嗎?其本質是什麼?

周昊:圖注意力機制是一種層次化的概率模型,通過不同層次知識圖的概率計算,可以提取知識圖中不同層次的知識,同時生成知識的推理路徑。

AI 科技大本營:知識圖會成為 NLP 的未來嗎?

周昊:知識在nlp中已經有了很多應用,未來應用會更廣泛,至於是否會以知識圖的方式加入進來取決於技術和模型的發展了。

AI 科技大本營:去年你的另外一篇論文關於 Emotional Chatting Machine 的研究也是獲得了非常高的關注,MIT科技評論、衛報和NIVIDIA也進行了專門的報導,再到今年獲得 Distinguished Paper,有什麼研究經驗可以讓大家借鑑嗎?

周昊:在研究方面,我比較喜歡發現一些新的問題。大致過程就像做產品一樣,首先要明確需求(需求最好是重要且容易定義的),然後尋找資源構造資料(資料沒有必要十分旁大,因為資料處理,模型訓練會浪費很多時間,從小資料做起驗證想法,一步步擴充套件也是不錯的思路),接著是從需求出發設計模型(可以將人的先驗知識如任務的定義、語言學的資源融入到模型中),最後就是對比實驗(不同會議偏好的實驗也不同,比如 AAAI、IJCAI 之類 AI 的會議比較偏向能夠解釋說明 motivation 的實驗,ACL、EMNLP 之類 NLP 的會議比較偏向統計性指標、多組 baseline 對比以及 ablation test 等實驗)。通過實驗結果的反饋不斷迭代修改整個流程,最後得到一個滿意的結果。

AI 科技大本營:大家都非常關注也想更多瞭解關於清華大學 NLP 的研究,可以給我們的讀者介紹一下清華 NLP 研究課題組嗎?

周昊:清華大學進行 NLP 研究的課題組有很多,研究方向各不相同。我們組(指導老師:朱小燕、黃民烈)主要研究的是互動式人工智慧,即通過對話、互動體現出來的智慧行為,通常智慧系統通過與使用者或環境進行互動,並在互動中實現學習與建模。我們組的主要研究方向有深度學習、強化學習、問答系統、對話系統、情感理解、邏輯推理、語言生成等。其他如孫茂松老師組的詩詞生成,劉洋老師組的機器翻譯等等。如果有對 NLP 研究感興趣的同學們歡迎來各個課題組交流。

▌AI 科技大本營:很感謝今天周昊和我們聊了這麼多關於 NLP 領域的研究,自己的研究心得還有關於清華 NLP 課題組的分享。最後我們在周昊的指導意見下對他的獲獎論文進行了解讀,希望可以給大家的研究與學習帶來靈感,有所收穫。(譯者 | 王天宇;編輯 | Jane)

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事


摘要


常識知識對於自然語言處理來說至關重要。在本文中,我們提出了一種新的開放域對話的生成模型,以此來展現大規模的常識知識庫是如何提升語言理解與生成的。若輸入一個問題,模型會從知識庫中檢索相關的知識圖,然後基於靜態圖注意力機制對其進行編碼,圖注意力機制有助於提升語義資訊,從而幫助系統更好地理解問題。接下來,在語句的生成過程中,模型會逐個讀取檢索到的知識圖以及每個圖中的知識三元組,並通過動態的圖注意力機制來優化語句的生成。我們首次嘗試了在對話生成中使用大規模的常識知識庫。此外,現有的模型都是將知識三元組分開使用的,而我們的模型將每個知識圖作為完整的個體,從而獲得結構更清晰,語義也更連貫的編碼資訊。實驗顯示,與當前的最高水平相比,我們提出的模型所生成的對話更為合理,資訊量也更大。

簡介


在許多自然語言處理工作中,尤其在處理常識知識和客觀現象時,語義的理解顯得尤為重要,毋庸置疑,它是一個成功的對話系統的關鍵要素,因為對話互動是一個基於“語義”的過程。 在開放域對話系統中,常識知識對於建立有效的互動是很重要的,這是因為社會共享的常識知識是大眾樂於瞭解並在談話中使用的資訊。

最近,在對話生成方面有很多神經模型被提出。但這些模型往往給出比較籠統的回覆,大多數情況下,無法生成合適且資訊豐富的答案,因為若不對使用者的輸入資訊、背景知識和對話內容進行深度理解,是很難從對話資料中獲取語義互動資訊的。當一個模型能夠連線並充分利用大規模的常識知識庫,它才能更好地理解對話內容,並給出更合理的回覆。舉個例子,假如模型要理解這樣一對語句,“Don’t order drinks at the restaurant , ask for free water” 和“Not in Germany. Water cost more than beer. Bring your own water bottle”, 我們需要的常識知識可以包括(water,AtLocation,restaurant),(free, RelatedTo, cost) 等。

在此之前,有些研究已經在對話生成中引入了外部知識。這些模型所用到的知識是非結構化的文字或特定領域的知識三元組,但存在兩個問題,第一,它們高度依賴非結構化文字的質量,受限於小規模的、領域特定的知識庫。第二,它們通常將知識三元組分開使用,而不是將其作為每個圖的完整個體。因此,這類模型不能基於互相關聯的實體和它們之間的關係來給出圖的語義資訊。

為解決這兩個問題,我們提出了常識知識感知對話模型(Commonsense Knowledge Aware Conversational Model, CCM),以優化語言理解和開放域對話系統的對話生成。我們使用大規模的常識知識來幫助理解問題的背景資訊,從而基於此類知識來優化生成的答案。該模型為每個提出的問題檢索相應的知識圖,然後基於這些圖給出富有資訊量又合適的回覆,如圖 1 所示。為了優化圖檢索的過程,我們設計了兩種新的圖注意力機制。靜態圖注意力機制對檢索到的圖進行編碼,來提升問題的語義,幫助系統充分理解問題。動態圖注意機制會讀取每個知識圖及其中的三元組,然後利用圖和三元組的語義資訊來生成更合理的回覆。



對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

圖 1:兩種模型的對比。第一行回覆由我們的模型(引入常識知識)生成,

第二行回覆由 Seq2Seq 模型(未引入常識知識)生成。

總地來說,本文主要做出了以下突破:

  • 該專案是首次在對話生成神經系統中,嘗試使用大規模常識知識。有了這些知識的支撐,我們的模型能夠更好地理解對話,從而給出更合適、資訊量更大的回覆。

  • 代替過去將知識三元組分開使用的方法,我們設計了靜態和動態圖注意力機制,把知識三元組看作一個圖,基於與其相鄰實體和它們之間的關係,我們可以更好地解讀所研究實體的語義。

常識對話模型

▌2.1 背景:Encoder – Decoder 模型

首先,我們介紹一下基於 seq2seq 的 Encoder-Decoder 模型。編碼器表示一個問題序列對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,其隱藏層可表示為對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,可以簡單寫作如下形式:

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

這裡的對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事是對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的詞嵌入結果,GRU (Gated Recurrent Unit) 是門控迴圈單元。

解碼器將上下文向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的詞嵌入結果作為輸入,同時使用另一個 GRU(門控迴圈單元)來更新其狀態對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事:

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

這裡的對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事結合兩個向量,共同作為 GRU 網路的輸入。上下文向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事是 H 的詞嵌入結果,也就是編碼器隱藏狀態的權重和:對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事估量了狀態對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和隱藏狀態對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事中間的相關度。



從輸出的可能性分佈中抽取樣本,解碼器會產生一個 token,可能性的計算如下:

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

此處對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,這些詞便生成了。

譯者注:Seq2Seq 模型與經典模型有所不同的是,經典的 N vs N 迴圈神經網路要求序列要等長,但我們在做對話生成時,問題和回覆長度往往不同。因此 Encoder-Decoder 結構通過 Encoder 將輸入資料編碼成一個上下文向量,再通過 Decoder 對這個上下文向量進行解碼,這裡的 Encoder 和 Decoder 都是 RNN 網路實現的。

▌2.2 任務定義與概述

我們的問題描述如下:給定一個問題對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和一些常識知識的圖 對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,目標是生成合理的回覆對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事。本質上來看,該模型估計了概率:對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事。基於問題從知識庫中檢索圖,每個單詞對應G中的一個圖。每個圖包含一個三元組的集合對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,每個三元組(頭實體、關係、尾實體)可表示為對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事。

為了把知識庫與非結構化的對話本文相關聯,我們採用了 MLP 模型:一個知識三元組對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事可以表示為 k= (h, r, t) = MLP(TransE(h,r, t)),這裡的h / r / t 是經過 TransE 模型分別轉化處理過的 h / r / t.

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

圖 2:CCM 結構圖

我們的常識對話模型(Commonsense Conversational Model, CCM)的概覽如圖 2 所示。知識解析器 (Knowledge Interpreter) 將問題對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和檢索得到的知識圖對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事作為輸入,通過把單詞向量和與其對應的知識圖向量相結合,來獲得對每個單詞的知識感知。通過靜態圖注意力機制,知識圖向量包含了問題 X中對應每個單詞的知識圖。基於我們的動態圖注意力機制,知識感知生成器 (Knowledge Aware Generator) 生成了回覆對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事。在每個解碼環節,它讀取檢索到的圖和每個圖中的實體,然後在詞彙表中生成通用詞彙,或在知識圖中生成實體。

▌2.3 知識解析器



對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

圖 3:知識解析器把單詞向量和圖向量相結合。

在該例子中,單詞 rays 對應第一個圖,sunlight 對應第二個圖。

每個圖都用圖向量表示。關鍵實體 (Key Entity) 表示當前問題中的實體。

知識解析器 (Knowledge Interpreter) 旨在優化問題理解這一環節。它通過引入每個單詞對應的圖向量,來增強單詞的語義,如圖 3 所示。知識解析器把問題中的每個單詞 xt 作為關鍵實體,從整個常識知識庫中檢索圖

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事(圖中黃色部分)。每個檢索到的圖包含一個關鍵實體(圖中紅色圓點),與其相鄰的實體(圖中藍色圓點)以及實體之間的關係。對一些常用詞彙(如:of)來說,常識知識圖中沒有與其匹配的圖,這類詞彙用一個帶有特殊標誌 Not_A_Fact(圖中灰色圓點)的圖來表示。接下來,知識解析器會基於靜態圖注意力機制,來計算檢索到的圖的圖向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事。把單詞向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和知識圖向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事相結合,就得到了向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,然後把它餵給編碼器中的 GRU(門控迴圈單元,見圖 1)。

靜態圖注意力


靜態圖注意力機制的設計旨在為檢索到的知識圖提供一個表現形式,我們設計的機制不僅考慮到圖中的所有節點,也同時考慮節點之間的關係,因此編碼的語義資訊更加結構化。

靜態圖注意力機制會為每個圖生成一個靜態的表現形式,因而有助於加強問題中每個單詞的語義。

形式上,靜態圖注意力把圖中的知識三元組向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事作為輸入,來生成如下的圖向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事:

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

這裡的對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事分別是頭實體、關係、尾實體的權重矩陣。注意力的權重估量了“實體間關係”對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和“頭實體”對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事以及“尾實體”對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事之間的關聯度。

本質上來說,圖向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事是每個三元組中頭尾向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的權重和。

▌2.4 知識感知生成器



對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

圖 4: 知識感知生成器動態地處理著圖

知識感知生成器 (Knowledge Aware Generator) 旨在通過充分利用檢索到的圖,來生成相應的回覆,如圖 4 所示。知識感知生成器扮演了兩個角色:1) 讀取所有檢索到的圖,來獲取一個圖感知上下文向量,並用這個向量來更新解碼器的狀態;2) 自適應地從檢索到的圖中,選擇通用詞彙或實體來生成詞語。形式上來看,解碼器通過如下過程來更新狀態:

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

這裡對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事是單詞向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和前一個知識三元組向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的結合,其來自上一個所選單詞對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事是式 2 中的上下文向量,對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事分別是作用於知識圖向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和知識三元組向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的上下文向量。

動態圖注意力


動態圖注意力機制是一個分層的、自上而下的過程。首先,它讀取所有的知識圖和每個圖中的所有三元組,用來生成最終的回覆。若給定一個解碼器的狀態對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事, 它首先作用於知識圖向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,以計算使用每個圖的概率,如下:

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

這裡對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事都是引數,對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事是處於第 t 步時選擇知識圖對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的概率。圖的上下文向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事是圖向量的權重和,這個權重估量了解碼器的狀態對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和圖向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事之間的關聯。

接下來,該模型用每個圖對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事中的知識三元組向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事,來計算選擇某個三元組來生成答案的概率,過程如下:

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

這裡對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事可被看作每個知識三元組向量對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和解碼器狀態對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的相似度,對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

是處於第 t 步時從圖對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的所有三元組中選擇對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事的概率。

最後,知識感知生成器選取通用詞彙或實體詞彙,基於如下概率分佈:

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事



這裡對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事 是用來平衡實體詞彙對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事和通用詞彙對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事之間選擇的標量,對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事分別是通用詞彙和實體詞彙的概率。最終的概率對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事由兩種概率結合所得。

譯者注:在語言生成過程中,引入動態圖注意力機制,模型可以通過當前解碼器的狀態,注意到最合適的知識圖以及對應的知識三元組,再基於此來選擇合適的常識與詞彙來生成回覆,從而使對話的資訊量更大,內容更加連貫合理。與很多動態優化演算法相類似,狀態不斷地更新與反饋,隨之自適應地調整下一步決策,在對話生成系統中引入該機制有效地改善了生成結果。

實驗

▌3.1 資料集

常識知識庫

我們使用語義網路 (ConceptNet) 作為常識知識庫。語義網路不僅包括客觀事實,如“巴黎是法國的首都”這樣確鑿的資訊,也包括未成文但大家都知道的常識,如“狗是一種寵物”。這一點對我們的實驗很關鍵,因為在建立開放域對話系統過程中,能識別常見概念之間是否有未成文但真實存在的關聯是必需的。

常識對話資料集

我們使用了來自 reddit 上一問一答形式的對話資料,資料集大小約為 10M。由於我們的目標是用常識知識優化語言理解和生成,所以我們濾出帶有知識三元組的原始語料資料。若一對問答資料與任何三元組(即一個實體出現在問題中,另一個在答覆中)都沒有關聯,那麼這一對資料就會被剔除掉。具體資料概況可見表 1。



對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

表 1: 資料集與知識庫概況

▌3.2 實驗細節

我們的模型是在 Tensorflow 下執行的。編碼器與解碼器均有兩層 GRU 結構,每層有 512 個隱藏單元,它們之間不會共享引數。詞嵌入時的長度設定為 300。詞彙表大小限制在 30000。

我們採用了 Adam 優化器,學習率設定為 0.0001。具體程式碼已共享在 github上,文末附有地址。

▌3.3 對比模型

我們選取了幾種合適的模型作為標準來進行對比:

  • Seq2Seq,一種 seq2seq 模型,它被廣泛應用於各種開放域對話系統中。

  • MemNet,一個基於知識的模型,其中記憶單元用來儲存知識三元組經 TransE 嵌入處理後的資料。

  • CopyNet,一種拷貝網路模型,它會從知識三元組中拷貝單詞或由詞彙表生成單詞。

▌3.4 自動評估

指標:我們採用複雜度 (perplexity)來評估模型生成的內容。我們也計算了每條回覆中的實體個數,來估量模型從常識知識庫中挑選概念的能力,這項指標記為 entity score.

結果:如表 2 所示,CCM 獲得了最低的複雜度,說明 CCM 可以更好地理解使用者的問題,從而給出語義上更合理的回覆。而且與其他模型相比,在對話生成中,CCM 從常識知識中選取的實體最多,這也可以說明常識知識可以在真正意義上優化回覆的生成。



對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

表 2: 基於 perplexity 和 entity score 的模型自動評估

▌3.5 人工評估

我們藉助於眾包服務 Amazon Mechanical Turk,從人工標記過的資料中隨機採集 400 條資料。我們基於此來將 CCM 和另外幾個模型對同一問題生成的回覆進行對比。我們有三個對比模型,總計 1200 個問答資料對。

指標:我們定義了兩項指標:appropriateness 在內容質量上進行評估(基於語法、主題和邏輯);informativeness 在知識層面進行評估(基於生成的答覆是否針對問題提供了新的資訊和知識)。

結果:如表 3 所示,CCM 在兩項指標下都比另外幾個模型表現更為突出。其中 CopyNet 是將知識三元組分開單獨使用的,這也證明了圖注意力機制的有效性。

很明顯,在 OOV (out-of-vocabulary) 資料集的表現上, CCM 比 Seq2Seq 突出得多。這也進一步說明常識知識在理解生僻概念上很有效,而 Seq2Seq 並沒有這個能力。對於 MemNet 和 CopyNet,我們未發現在這一點上的差別,是因為這兩個模型都或多或少引入使用了常識知識。

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

表 3: 基於 appropriateness (app.) 和 informativeness (inf.) 的人工評估

▌3.6 案例研究

如表 4 所示,這是一個對話示例。問題中的紅色單詞 “breakable” 是知識庫裡的一個單詞實體,同時對於所有模型來說,也是一個詞彙表以外的單詞。由於沒有使用常識知識,且 “breakable” 是詞彙表之外的單詞,所以 Seq2Seq 模型無法理解問題,從而給出含有 OOV 的回覆。MemNet 因為讀取了記憶中嵌入的三元組,可以生成若干有意義的詞彙,但輸出中仍包含 OOV。CopyNet 可以從知識三元組中讀取和複製詞彙。然而,CopyNet 生成的實體單詞個數比我們的少(如表 2 所示),這是因為 CopyNet 將知識三元組分開使用了。相比之下,CCM 將知識圖作為一個整體,通過相連的實體和它們之間的關係,與資訊關聯起來,使解碼更加結構化。通過這個簡單的例子,可以證明相比於其他幾個模型,CCM 可以生成更為合理、資訊也更豐富的回覆。

對話清華大學周昊,詳解IJCAI傑出論文及其背後的故事

表 4: 對於同一問題,所有模型生成的回覆

總結和未來的工作

在本文中,我們提出了一個常識知識感知對話模型 (CCM),演示了常識知識有助於開放域對話系統中語言的理解與生成。自動評估與人工評估皆證明了,與當前最先進的模型相比,CCM 能夠生成更合理、資訊量更豐富的回覆。圖注意力機制的表現,鼓舞了我們在未來的其他專案中也將使用常識知識。

AI 科技大本營:最後非常感謝周昊這次給我們的讀者帶來的精心分享!也希望在今後研究與工作的道路上,周昊同學都可以一帆風順!也希望今後有機會和我們大本營的讀者分享更多的研究心得與技術乾貨!如果大家對周昊的研究工作或 NLP 研究領域有任何想交流的問題、想法或建議,都可以在下方給我們留言,一起交流學習!

1.關於論文《Commonsense Knowledge Aware Conversation Generation with Graph Attention》

論文連結:

http://coai.cs.tsinghua.edu.cn/hml/media/files/2018_commonsense_ZhouHao_3_TYVQ7Iq.pdf

GitHub地址:

https://github.com/tuxchow/ccm

2.關於論文《Emotional Chatting Machine: Emotional Conversation Generation with Internal and External Memory》

論文連結:

http://coai.cs.tsinghua.edu.cn/hml/media/files/aaai2018-ecm.pdf

GitHub 地址:

https://github.com/tuxchow/ecm

相關文章