技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

AI科技大本營發表於2017-12-14

AI科技大本營(rgznai100)編譯

參與 | 林椿眄、劉暢、彭碩

編輯 | Donna Suisui


過去幾年,深度學習架構和演算法在影象識別和語音處理等領域取得了重大的進步。而在NLP(自然語言處理)領域,起初並沒有太大的進展。不過現在,NLP領域取得的一系列進展已證明深度學習技術將會對自然語言處理做出重大貢獻。一些常見的任務如實體命名識別,詞類標記及情感分析等,自然語言處理都能提供最新的結果,並超越了傳統方法。另外,在機器翻譯領域的應用上,深度學習技術所取得的進步應該是最顯著的。

這篇文章中,我將在通過一些深度學習技術來闡述2017年NLP領域所取得的一系列進步。相關的科技論文,框架和工具有很多,在這裡我沒辦法逐一列出,內容也不詳盡。我只是想和大家分享並介紹今年一系列我最喜歡的研究。

我認為,2017年是深度學習的一個重要年份,隨著深度學習技術在NLP領域中的應用不斷深入且產生了令人驚喜的結果,所有的跡象都表明,NLP領域將在深度學習技術的輔助下繼續高效前進。


01 從訓練word2vec模型到使用預訓練模型

可以說,詞嵌入模型(Word embedding)是深度學習技術在NLP領域最顯著的技術。他們遵循了Harris (1954) 提出的分散式假說。根據這個假說可知,具有相似含義得此通常會出現在上下文的語境中。關於詞嵌入的詳細解釋,你也可以閱讀Gabriel Mordecki的文獻。

技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

諸如word2vec(Mikolov等,2013)和Glove(Pennington等,2014)等演算法已經成為NLP領域的代表性演算法。儘管它們不能被認為是深度學習技術在該領域的應用(word2vec中應用淺層神經網路,而Glove是基於計數模型的一種演算法),但是用他們訓練得到的模型作為大量深度學習模型的輸入,也是深度學習技術與自然語言處理領域相結合的一種常見方式。因此,目前在我們領域中應用詞嵌入模型,通常被視為是一種好的嘗試。

一開始,給定一個需要詞嵌入模型的NLP問題,我們更希望在一個與領域相關的大語料庫中訓練我們自己的模型。當然,這不是使用詞嵌入模型最好的方式,所以需要從預訓練模型開始慢慢進行。通過維基百科,Twitter,Google新聞,網頁抓取等資料的訓練,這些模型可以很容易地讓你將詞嵌入模型整合到深度學習演算法中去。

今年的研究進展證實了預訓練詞嵌入模型仍然是NLP領域的一個關鍵性的問題。例如,來自Facebook AI Research(FAIR)實驗室的fastText模型,用294種語言釋出預訓練好的模型向量,這是一項偉大的工作,對於我們研究領域來說更是一重大的貢獻。除了大量的語言的使用,由於fastText使用字元n-grams作為語義特徵,使得該模型能夠得到很大的應用。

此外,fastText模型還能避免OOV問題(超出詞彙量問題),因為即使是一個非常罕見的詞(如特定領域的專業術語)也有可能與一個常見詞共享同一個n-gram字元。因此,從這個意義上來說,fastText模型比word2vec和Glove模型表現得更好,並且對於小資料庫有著更優的效能。

然而,儘管我們可以看到該領域一些進步,但是對這領域的研究還有很長一段路要走。例如,著名的NLP框架spaCy以本地的方式將詞嵌入模型和深度學習模型整合並應用到諸如NER和Dependency Parsing等NLP任務中,並允許使用者更新模型或使用自己的模型。

我認為這是需要研究的東西。未來,對於這些易於應用到特定領域(諸如生物學,文學,經濟學等)的NLP框架來說,進行預訓練得到模型是一種非常好的方式。根據我們的情況,以最簡單的方式對模型進行一系列的微調優化,來提高模型的效能。同時,一些適用於詞嵌入模型的方法也開始慢慢出現。


02 調整通用的嵌入模型應用於特定的案例

也許使用預訓練的詞嵌入模型的最大缺點是訓練資料與我們問題中使用的實際資料之間存在詞分佈差距(word distributional gap)。這麼說吧,假設你有生物學論文集,食譜和經濟領域的研究文章,由於你可能沒有足夠大的語料庫來訓練得到良好效能的詞嵌入模型,所以你需要通用嵌入模型來幫助你改善研究結果。但是如果通用嵌入模型可以進行調整並應用於你所需要的特定案例呢?

這個想法是簡單而又有效的。想象一下,我們知道在源域中單詞w的詞嵌入是w_s。為了計算w_t(目標域)的嵌入,作者向w_s新增了兩個域之間的一定量的傳輸。基本上,如果這個詞在這兩個領域出現的都很頻繁,那就意味著它的語義不具有領域依賴性。

在這種情況下,由於傳輸量很高,因此在兩個域中產生的詞嵌入趨勢是相似的。但是,對於特定領域的詞,會在一個領域出現的更頻繁,所需要傳輸的量是很小的。

關於詞嵌入的研究課題至今還沒有得到廣泛的研究和探索,但我認為在近期會得到更多的關注。


03 情感分析將有一個難以置信的作用

今年,Ranford等人發現訓練模型中的單個神經元對於情感價值有著高度的預測性,為進一步預測Amazon評論文字中的下一個字元,他們探索了位元組級迴圈語言模型的特性。結果表明,這個單一的“情感神經元”的確能夠相當準確地預測並將評論分類為正負面。

技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

注意到這種行為之後,他們決定在 Stanford Sentiment Treebank資料庫上測試模型,並發現模型的準確性高達91.8%,而之前最好的模型準確度為90.2%。這說明,使用很少的樣本,以無監督的方式進行訓練的模型,至少在一個特定但廣泛研究的資料庫上得到了最先進的情感分析結果。

工作中的情感神經元

由於模型的表現是基於字元水平的,所以神經元在文字中改變了每個字元的狀態,這是相當驚人的行為。

例如,在一個單詞後面,神經元的值變為強的正值,然而這種作用效果將隨著詞的消失而消失,這看起來也是有道理的。

生成帶極偏見性文字

當然,訓練好的模型仍然是一個有效的生成模型,所以它可以用來生成類似Amazon評論的文字。但是,我覺得很棒的是,你可以通過簡單地覆蓋情感神經元的價值來選擇生成樣本的極性。

技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

文字生成示例(來源-https://blog.openai.com/unsupervised-sentiment-neuron/)

Krause等(2016)所選擇的NN模型是由Krause等人提出的乘式LSTM模型。這是因為他們觀察到,該模型的超引數設定方式能比正常的LSTM模型更快地收斂。它有4096個神經元,並用8200萬條Amazon的評論語料庫來進行訓練。

為什麼訓練有素的模型能夠準確地捕捉到情感概念中一些開放而迷人的問題呢。與此同時,你也可以嘗試訓練自己的模型並進行實驗。當然,如果你有充裕的時間和GPU的話,那麼用四款NVIDIA Pasca GPUs,對這個特定的模型進行訓練,仍需要花費一個月時間才能完成。


04 Twitter上的情感分析

無論是人們對企業品牌的評價,分析營銷活動的影響,還是衡量上次競選期間民眾對希拉蕊·克林頓和唐納德·川普的整體感受,Twitter的情感分析都是一個非常強大的工具。

技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

SemEval 2017

Twitter上的情感分析已經引起了NLP研究人員的興趣,同時也得到政治和社會科學界的廣泛關注。這就是為什麼自2013年以來,SemEval比賽都會提出一系列具體的任務。

今年的比賽共有48支參賽隊伍參與了競賽,表現出極大的熱情和興趣。為了讓你更好地瞭解Twitter推出的SemEval比賽究竟是什麼(http://www.aclweb.org/anthology/S17-2088),讓我們來看看今年提出的五個子任務。

  1. 子任務A:給定一個推文,來判斷所表達的情緒是積極的、消極的還是中性的。

  1. 子任務B:給定一個推文和一個話題,分兩種情況下表達對這個話題的觀點:正面與負面。

  1. 子任務C:給定一個推文和一個話題,分五種情況來表達對這個話題的觀點:強勢、弱勢、中性、弱肯定性和強大的消極。

  1. 子任務D:給定一個關於某個話題的推文,評估推文在正性和負性類別中的分佈情況。

  1. 子任務E:給定一組關於某個話題的推文,評估推文在五中情緒類別中的分佈情況:強勢、弱勢、中性、弱弱及強大。

正如你所看到的,子任務A是最常見的任務,有38個團隊參與了這個任務的評估,而其他的任務則更具挑戰性。今年有20支團隊使用了卷積神經網路(CNN)和長短期記憶網路(LSTM)模型。此外,儘管SVM模型仍然非常流行,但是一些參賽隊伍都將它與神經網路的方法或詞嵌入特徵相結合。

BB_twtr系統

今年讓我比較驚奇的發現是BB_twtr系統(Cliche,2017),它是一個純粹的深度學習系統,並且在英語的5個子任務中排名第一。 作者將10個CNN結構和10個biLSTM結構集合(ensemble)起來,採用不同的超引數和預訓練策略來進行訓練。

為了訓練這些模型,作者使用了人工標註的推文(tweets)(給定一個數量級,子任務A有49,693個),並且構建了一個包含1億條推文的未標記資料集,這個資料集只是通過簡單的標記一條推文來獲取,比如表示推文內容積極的表情符號是:-),對於內容消極的推文就是相反的表情。這些推文中的小寫,標記,URL和表情符號被替換為特定的標記 (, , etc.),並且字元重複的內容將會統一,例如,“niiice”和“niiiiiiiice”變成“niice”。

為了對用作CNN和biLSTM結構輸入的單詞嵌入資訊進行預訓練,作者在未標記的資料集上使用了word2vec,GloVe和fastText(全部使用預設設定)詞向量。然後他使用距離資料集(distant dataset)來提煉嵌入特徵是為了增加作用力資訊,然後使用人工標記的資料集再次提取它們的特徵。

作者使用以前的SemEval資料集進行實驗表明,使用GloVe詞向量會降低效能,而且對於所有好的資料集都沒有唯一的最佳模型。 然後作者將所有模型與軟投票策略結合起來。 由此產生的模型結果比2014年和2016年的歷史最好的歷史成績更勝一籌,而且也與其他年份非常接近。最後,它在2017自然語言競賽 SemEval 資料集5子任務中排名第一。

即便這種組合採取的簡單的軟投票策略並不能看作是一種有效的方式,但是這項工作表明瞭將深度學習模型結合起來的可能性,以及一種幾乎端到端的方法(輸入必須經過預處理 )。並且是在Twitter的情感分析中是可以超越監督方法的。


05 一個令人興奮的抽象概括系統

自動概括和自動翻譯一樣,是最早的NLP任務之一。目前有兩種主要的方法:基於提取的方法,其概括是通過從源文字中提取最重要的段而建立的,而基於抽象的方法則是通過生成文字來構建概括。

從發展歷史上看,基於提取的方法是最常用的,因為它們比基於抽象的方法簡單。在過去的幾年裡,基於RNN的模型在文字生成方面取得了驚人的成果。它們在簡短的輸入輸出文字上表現得非常好,但是對於長文字往往是不連貫和重複的。

在Paulus等人的工作中,他們提出了一種新的神經網路模型來克服這個侷限性。結果令人興奮,如下圖所示

技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

生成概括的模型說明(https://einstein.ai/research/your-tldr-by-an-ai-a-deep-reinforced-model-for-abstractive-summarization)

作者使用了一個biLSTM編碼器來讀取輸入和一個LSTM解碼器來產生輸出。他們的主要貢獻是一種新的內部注意(intra-attention)策略,這種策略是分別關注輸入和連續產生的輸出,和一種結合了標準的有監督的詞預測和強化學習的新的訓練方法。

內部注意策略

提出內部注意策略的目的是為了避免輸出中的重複。為了達到這個目的,它們在解碼時使用時間上的注意力來檢視輸入文字的已輸入片段,然後決定下一個將要產生的字。這迫使模型在生成過程中使用輸入的不同部分。他們還允許模型訪問解碼器以前的隱藏狀態。然後將這兩個函式組合起來,為輸出概括選擇最好的下一個單詞。

強化學習

為了建立一個概括,需要兩個不同的人使用不同的單詞和句子順序,這兩個概括才可能被認為是有效的。因此,一個好的概括不一定非要是儘可能匹配訓練資料集中單詞序列的序列。

由於知道這一點,作者沒有采用標準的教師強迫演算法來使每個解題步驟的損失最小化,而是依靠強化學習策略,並且證明了這是一個很好的選擇。

幾乎是端到端模型最好的結果

該模型在美國有線電視新聞網和每日郵報資料集上進行了測試,並取得了最先進的成果。此外,一項帶有人類評估者的具體實驗結果也顯示了人類對於生成的文字在可讀性和質量方面的提高。

這些結果是令人欽佩的,該模型的基本預處理過程是:輸入文字進行分詞,小寫字母,數字用“0”替換,然後刪除資料集中一些特定的實體。


06 邁出無監督機器翻譯的第一步?

雙語詞典歸納,即用兩種語言的源語和單語語料庫來識別單詞翻譯對,這其實是一個古老的NLP任務。自動生成的雙語詞典有助於其他的NLP任務,如資訊檢索和統計機器翻譯。 然而,這些方法大部分時間都依賴於某種資源,通常是一個初始的雙語詞典,但是這個詞典並不總是可用或者很容易建立。

隨著詞嵌入方法的成功,跨語言詞嵌入的設想也出現了,目標是對齊嵌入空間而不是詞典。 不幸的是,第一種方法也依賴於雙語詞典或平行的語料庫。Conneau等(2018)提出了一個非常超前的方法,它不依賴於任何特定的資源,並且在多個語言對(language pairs)的語言翻譯,句子翻譯檢索和跨語言單詞相似性三個任務上優於現有的監督方法。

作者開發的方法是將輸入的兩組單詞嵌入在單語資料上進行獨立訓練來學習它們之間的對映,使得翻譯後的內容在空間上接近。他們使用fastText詞向量是在維基百科文件上訓練出無監督的詞向量。

以下圖片詮釋了他們的核心想法:

技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

建立兩個詞在嵌入空間之間的對映(https://arxiv.org/abs/1710.04087)

紅色的X分佈是英語單詞的嵌入,藍色的Y分佈是義大利語單詞的分佈。

首先,他們使用對抗學習來學習用於第一次原始對齊的旋轉矩陣W.。他們根據Goodfellow等人在2014年提出的想法,主要是是訓練了一個生成對抗網路(GAN)。要了解GAN是如何工作的,我建議你讀這篇由Pablo Soto撰寫的文章

為了在對抗學習方面對問題進行建模,他們將判別器定義為確定的角色,給定從WX和Y隨機取樣的一些元素(參見上圖中的第二列),每個元素代表一種語言。然後,他們訓練W以防止判別器做出好的預測。

這在我看來非常聰明和優雅的做法,並且直接得出的結果也是相當不錯的。

之後,他們再採用了兩個步驟來完善整個對映。第一個步驟是為了避免對映計算中由罕見字引入的噪聲。另一個步驟是為了使用學習的對映和距離度量來建立實際的翻譯。

在某些情況下的結果是非常好的。 例如,對於英語—義大利語之間單詞的翻譯,在P @ 10的情況下,他們勝過了最佳平均精確度近17%。

技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

英語-義大利語單詞翻譯的平均精度。

作者聲稱,他們的方法可以看作是邁向了無監督機器翻譯的第一步。我們可以看一看這個新的有前景的方法到底能走多遠。


07 專業化的框架和工具

通用的DL框架和工具有很多種,比如說被廣泛應用的Tensorflow,Keras還有PYTorch。不過,具體到開源的NLP方向的DL框架和工具卻剛嶄露頭腳。今年對我們來說是非常棒的一年,因為有很多有用的開源框架已經在社群裡實現了。這其中有三個框架吸引了我的注意力,我覺得各位肯定也會非常感興趣。

Allen NLP:

Allen NLP 框架是建立在PyTorch之上的平臺,設計之初的目的是為了在語義NLP的任務中用起來更簡單。它的目的是讓研究者能夠設計和評價新的模型。它包括了通用語義NLP任務中的模型的參考實現,這些任務包括語義角色標籤、文字蘊含以及共指消解。

Parl AI:

Parl AI框架是一個針對對話研究的開源軟體平臺。該平臺是用Python來實現的,旨在為分享、訓練以及對話模型測試提供一個聯合框架。ParlAI提供了一個非常簡單的可以與亞馬遜的Mechanical Turk合併機制。它也提供了當下很流行的資料集並且支援好幾種模型,包括神經模型,例如:記憶網路、seq2seq和LSTMs。

Open NMT:

OpenNMT工具集是一個通用的針對序列到序列的模型的框架。它可以用來執行機器翻譯、總結以及影象到文字、語音識別的任務。


08 終極思考

DL技術的使用在解決NLP問題中的穩步增長是不容置疑的。最能說明的一個指標就是過去幾年中,深度學習論文中使用關鍵NLP會議中的佔比的變化,例如ACL、EMNLP、EACL和NAACL。

技術乾貨 | 2017年深度學習在NLP領域重大進展,以及發展趨勢

深度學習論文的比例

然而,真正的端到端的學習才剛剛開始。我們正在處理典型的NLP任務來為資料集做準備,例如,清理,標記化或者一些實體的統一(例如:URL,數字、電子郵箱等)。我們也用通用的嵌入式,缺點就是它們不能抓住特殊領域的關鍵詞的重要性,而且它們在多文字表達中表現的很糟糕,這是我在工作的專案中反覆發現的一個關鍵問題。

對應用於NLP的深度學習來說,今年是非常不錯的一年,希望2018年能有更多端到端的學習著作,能有更多趨於成熟的開源框架。你可以在評論區和我們盡情分享你對這些著作和框架的思考和意見,更歡迎你分享本文沒有提到的框架和著作。


延伸閱讀

更多深度學習在NLP研究中的應用趨勢相關資訊,強烈推薦這篇論文 “Recent Trends in Deep Learning Based Natural Language Processing” by Young et al. (2017).

另一篇比較有趣的文章“From Characters to Understanding Natural Language (C2NLU): Robust End-to-End Deep Learning for NLP” by Blunsom et al. (2017)

CNN和RNN在NLP中的對比研究,請參看 Comparative Study of CNN and RNN for Natural Language Processing, by Yin et al. (2017).

想要更直觀地瞭解 GANs是如何工作的,推薦這篇文章:The major advancements in Deep Learning in 2016

關於Word embedding的詳細解釋,推薦閱讀Word embeddings: how to transform text into numbers,這篇文章以寓教於樂的方式解釋了不同的方法,以及關於Word embedding的一些少有人知道的內容

關於Word embedding的內容,推薦你一篇非常不錯且詳細的文章: About Word embeddings in 2017: Trends and future directions.

參考

From Characters to Understanding Natural Language (C2NLU): Robust End-to-End Deep Learning for NLP Phil Blunsom, Kyunghyun Cho, Chris Dyer and Hinrich Schütze (2017)

BB_twtr at SemEval-2017 Task 4: Twitter Sentiment Analysis with CNNs and LSTMs Mathieu Cliche (2017)

Word Translation without Parallel Data Alexis Conneau, Guillaume Lample, Marc’Aurelio Ranzato, Ludovic Denoyer, Hervé Jégou (2018)

Generative adversarial nets Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville and Yoshua Bengio (2014)

Distributional structure Zellig Harris (1954)

OpenNMT: Open-source toolkit for neural machine translation Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart and Alexander M Rush. (2017)

Multiplicative lstm for sequence modelling Ben Krause, Liang Lu, Iain Murray and Steve Renals (2016)

Parlai: A dialog research software platformAlexander H Miller, Will Feng, Adam Fisch, Jiasen Lu, Dhruv Batra, Antoine Bordes, Devi Parikh and Jason Weston (2017)

Linguistic Regularities in Continuous Space Word Representations Tomas Mikolov, Scott Wen-tau Yih and Geoffrey Zweig (2013)

Glove: Global vectors for word representation Jeffrey Pennington, Richard Socher and Christopher D. Manning (2014)

Learning to Generate Reviews and Discovering SentimentAlec Radford, Rafal Jozefowicz and Ilya Sutskever (2017)

A Simple Regularization-based Algorithm for Learning Cross-Domain Word Embeddings Wei Yang, Wei Lu, Vincent Zheng (2017)

Comparative study of CNN and RNN for Natural Language Processing Wenpeng Yin, Katharina Kann, Mo Yu and Hinrich Schütze (2017)

Recent Trends in Deep Learning Based Natural Language Processing Tom Younga, Devamanyu Hazarikab, Soujanya Poriac and Erik Cambriad (2017)


原文地址:https://tryolabs.com/blog/2017/12/12/deep-learning-for-nlp-advancements-and-trends-in-2017/




相關文章