2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

dicksonjyl560101發表於2020-02-26
2020-02-25 10:57:21

選自Medium

作者:Elvis機器之心編譯

在整個2019年,NLP領域都沉澱了哪些東西?有沒有什麼是你錯過的?如果覺得自己梳理太費時,不妨看一下本文作者整理的結果。

2019 年對自然語言處理(NLP)來說是令人印象深刻的一年。本文將著重講述一些 2019 年我在機器學習和自然語言處理領域有所見聞的重要事件。我會把重點主要放在自然語言處理上,但也會涉及若干人工智慧領域的趣聞。主要內容包括研究論文、部落格、工具和資料集、社群討論、教程資源等。
長文預警,建議先點收藏。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)


目錄

  • 研究論文
  • 機器學習/自然語言處理的創造力和社群
  • 工具和資料集
  • 博文文章
  • 教程資源
  • 人工智慧倫理學


研究論文
2019 年,谷歌人工智慧團隊帶來了

ALBERT

,它是用於情境化語言表徵的自監督學習模型

BERT

的精簡版。主要的改進在於減少了冗餘,更加有效地分配了模型的效能。此方法在 12 個自然語言處理任務上達到了當前最佳效能(SOTA)。
2018 年底,英偉達的研究者們發表了一份熱門論文 (A Style-Based Generator Architecture for Generative Adversarial Networks)(取名為

StyleGAN

),提出了對抗生成網路的另一種生成器架構,靈感來自於風格遷移問題。2019 年,這份工作有了更新 (

Analyzing and Improving the Image Quality of StyleGAN

),著重研究了諸如重新設計生成器正則化的過程等方面。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

上面一行為目標影象,下面一行為合成影象。圖源:https://arxiv.org/abs/1912.04958
2019 年,我最喜歡的論文之一是 code2seq (https://code2seq.org/),這是一種從結構化表徵的程式碼中生成自然語言序列的方法。這樣的研究可以對自動程式碼摘要和文件化的應用起到助益。
你可曾想過,有沒有可能為生物醫學文字挖掘訓練一個生物醫學的語言模型?答案就是 BioBERT (BioBERT: a pre-trained biomedical language representation model for biomedical text mining),這是一個可以從生物醫學文獻中提取重要資訊的語境化模型。
在 BERT 發表後,Facebook 的研究者們釋出了 RoBERTa (RoBERTa: A Robustly Optimized BERT Pretraining Approach),引入新的優化方法來改進 BERT,也在多項自然語言處理的基準測試中達到了當前最優效果。
最近,Facebook 人工智慧部門的研究者們還發表了一種基於全注意力層來改進 Transformer 語言模型效率的方法 (https://ai.facebook.com/blog/making-transformer-networks-simpler-and-more-efficient/)。這個研究組的其它工作 (https://ai.facebook.com/blog/-teaching-ai-to-plan-using-language-in-a-new-open-source-strategy-game/) 還包括瞭如何教人工智慧系統通過制定計劃來使用自然語言。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)


全注意力層。圖來:https://arxiv.org/pdf/1907.01470.pdf
可解釋性仍然是機器學習和自然語言處理領域的重要議題。這篇論文 (Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI) 對於可解釋性、分類法以及未來研究的機遇提供了一份全面的綜述。
Sebastian Ruder 的博士論文也值得一看,題為:Neural Transfer Learning for Natural Language Processing。
新加坡國立大學等機構的研究者開發了一種方法 (Emotion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling),能夠在對話的情境下實現情緒識別,這將為情感化的對話生成鋪平道路。
另一項相關工作則是用一種叫做 DialogueGCN (DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation) 的圖神經網路方法,來探測對話中的情緒。作者還提供了程式碼實現:https://github.com/SenticNet/conv-emotion/tree/master/DialogueGCN。
谷歌量子人工智慧團隊在 Nature 發表了一篇論文,聲稱開發了一臺

量子計算機

,速度比世界上最大的超級計算機更快。
之前提到過,可解釋性是神經網路架構裡需要大幅改進的一個領域。這篇論文 (

Attention is not not Explanation

) 討論了在語言模型的情境下,注意力機制作為可解釋性的一種可靠方法所具有的侷限性。
神經邏輯機 (

Neural Logic Machines

) 是一種神經符號網路架構,在歸納學習和邏輯推理上效果都不錯。這個模型尤為擅長陣列排序和尋找最短路徑之類的任務。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

神經邏輯機架構。圖源:https://arxiv.org/pdf/1904.11694.pdf
這裡還有一篇論文 (

On Extractive and Abstractive Neural Document Summarization with Transformer Language Models

),把 Transformer 語言模型應用到了抽取式和摘要式 Neural document summarization。
研究者們開發出了一種方法,著重於利用比較來打造和訓練機器學習模型。這種方法 (https://blog.ml.cmu.edu/2019/03/29/building-machine-learning-models-via-comparisons/) 不需要大量的特徵-標籤對,它將影象與之前見過的影象相比較,以判定這張影象是否應該屬於某個標籤。
Nelson Liu 等發表的論文 (Linguistic Knowledge and Transferability of Contextual Representations) 討論了 BERT 和 ELMo 等預訓練的語境模型所捕捉到的語言學知識型別。

XLNet

是一種自然語言處理的預訓練方法,在 20 個任務上比 BERT 更勝一籌。我在這裡(https://medium.com/dair-ai/xlnet-outperforms-bert-on-several-nlp-tasks-9ec867bb563b) 寫過一篇關於這項重要研究的總結。
這份 DeepMind 的研究 (Learning and Evaluating General Linguistic Intelligence) 展示了一項涉及面廣泛的實證調查結果,其目的為評估用於各種任務的語言理解模型。這項分析對於更好地理解語言模型捕獲的內容、提高模型效率尤為重要。
VisualBERT (VisualBERT: A Simple and Performant Baseline for Vision and Language) 是一個小而強大的框架,用於為影象-語言類任務建模,相關任務包括 VQA 、Flickr30K 等。這個方法運用了堆疊的 Transformer 層和自注意力機制,來對齊一段文字和一塊影象區域之中的元素。
這份研究 (To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks) 提供了一份比較自然語言處理遷移學習方法的詳盡分析,以及為自然語言處理工作者們準備的指南。
Alex Wang 和 Kyunghyun 提出了 BERT 的一種實現方法 (BERT has a Mouth, and It Must Speak: BERT as a Markov Random Field Language Model),可以生成高質量且流暢的結果。你可以使用這份 Colab 筆記本來試試:https://colab.research.google.com/drive/1MxKZGtQ9SSBjTK5ArsZ5LKhkztzg52RV
Facebook 的研究者們釋出了 XLM 的 PyTorch 版程式碼 (https://github.com/facebookresearch/XLM),這是一個跨語言的預訓練模型。
這份研究 (https://www.cl.uni-heidelberg.de/statnlpgroup/blog/rl4nmt/) 對神經機器翻譯領域強化學習演算法的應用做了綜合分析。
這篇在 JAIR 上發表的論文 (A Survey of Cross-lingual Word Embedding Models) 對跨語言詞嵌入模型的訓練、評估和使用做了全面綜述。
The Gradient 上發表了一篇極佳的文章 (https://thegradient.pub/the-promise-of-hierarchical-reinforcement-learning/),詳述了當前強化學習的侷限性,並提供了利用分層強化學習的潛在發展方向。很快就有人釋出了一系列優秀的教程 (https://github.com/araffin/rl-tutorial-jnrr19/blob/master/1_getting_started.ipynb),你可以通過這組教程來開始接觸強化學習。
這篇論文 (

Contextual Word Representations: A Contextual Introduction

) 是情境化詞表徵的精簡版入門讀物。
機器學習/自然語言處理的創造力和社群
機器學習被用於解決真實世界的各種問題,同時它也被用在了一些有趣且有創造力的地方。機器學習的創造力和人工智慧的任何其他研究領域同樣重要,因為最終,我們希望造出能夠幫助我們塑造文化和社會的人工智慧系統。
到了年末之際,Gary Marcus 和 Yoshua Bengio 在深度學習、符號人工智慧和混合型人工智慧系統的想法等議題上進行了

辯論

2019 史丹佛年度AI報告

於年底面世,報告中對於人工智慧現狀全面的分析可以幫助我們更好地理解人工智慧的整體程式。
常識推理仍舊是一個重要的研究領域,因為我們想要建造的人工智慧系統,不僅應該能基於資料做預測,還應該理解這些決定並對它們進行推理。這類技術可以用於對話式人工智慧,其目的是使得智慧代理能夠自然地和人們進行對話。看看 Nasrin Mostafazadeh 的這份採訪 (https://www.forbes.com/sites/ayurellahornmuller/2018/12/31/the-art-of-ai-storytelling-how-one-30-under-30-scientist-is-teaching-devices-to-make-assumptions/#12824a1e2a4f)。
他在採訪中討論了常識推理以及講故事、語言理解等應用。你也可以看看這篇關於如何在常識推理中運用語言模型的新論文 (Explain Yourself! Leveraging Language Models for Commonsense Reasoning)。

啟用圖譜

是谷歌和 Open AI 的研究者們開發的一項技術,用於更好地理解和視覺化神經網路中神經元之間發生的互動。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

InceptionV1 的影象分類網路的啟用圖譜展示了很多完全實現的特徵,如電子產品、建築物、食物、動物的耳朵、植物和多水的背景。圖來:博文 https://openai.com/blog/introducing-activation-atlases/ 
看一下 Geoffrey Hinton 和 Yann LeCun 出品的這份圖靈課程 (https://fcrc.acm.org/turing-lecture-at-fcrc-2019),今年他倆和 Yoshua Bengio 一起獲得了

圖靈獎


這篇論文 (Tackling Climate Change with Machine Learning) 討論瞭如何用機器學習應對氣候變化。
OpenAI 發表了一篇涉及面很廣的報告 (Release Strategies and theSocial Impacts of Language Models),討論了語言模型的社會影響力,包括合理使用以及潛在的技術濫用等主題。
情緒分析仍然被用於各種各樣的應用。The Mojifier (https://themojifier.com/) 是一個很酷的專案,它可以檢視影象並檢測其中的情緒,然後把臉替換成檢測到的情緒所對應的表情符號。
今年將人工智慧技術應用於放射學的研究也十分熱門。這裡有篇不錯的文章 (Radiological images and machine learning: trends, perspectives, and prospects) 總結了這個研究領域的趨勢和展望。紐約大學的研究者們釋出了一個基於 Pytorch 的深度神經網路 (https://medium.com/@jasonphang/deep-neural-networks-improve-radiologists-performance-in-breast-cancer-screening-565eb2bd3c9f),能夠改進放射科醫生對乳腺癌的篩查。這裡還發布了一個重要的資料集,叫作 MIMIC-CXR (https://physionet.org/content/mimic-cxr/2.0.0/),其中包含了 X 光胸片和放射學文字報告的資料庫。
紐約時報寫了一篇報導 (https://www.nytimes.com/2019/01/02/obituaries/karen-sparck-jones-overlooked.html),記敘了 Karen Spark Jones 在自然語言處理和資訊檢索領域做出的具有開創性的貢獻。
OpenAI Five (https://openai.com/blog/openai-five-defeats-dota-2-world-champions/) 成為首個在電競遊戲上打敗世界冠軍的人工智慧系統。

全球人工智慧人才報告

對於世界範圍內的人工智慧人才儲備,以及全球對人工智慧人才的需求做了一份詳細的彙總。
DeepMind 團隊的播客 (https://deepmind.com/blog?filters=%7B%22category%22:%5B%22Podcasts%22%5D%7D)值得一看。這個節目的嘉賓們會討論人工智慧當下最為緊迫的話題。關於人工智慧的潛力,Demis Hassbis 在經濟學人做了一個訪談 (https://worldin.economist.com/article/17385/edition2020demis-hassabis-predicts-ai-will-supercharge-science?utm_medium=pr&utm_source=inf-a&utm_campaign=worldin),談論了一些未來學的想法,比如把人工智慧作為人類大腦的延伸,或許能以此解決一些重要的科學問題。
2019 同樣見證了機器學習在健康領域的卓越發展。比如,麻省總醫院(波士頓綜合性醫院)的研究者們開發了一個可以識別腦出血的人工智慧系統 (https://venturebeat.com/2019/01/04/massachusetts-generals-ai-can-spot-brain-hemorrhages-as-accurately-as-humans/),精度可以達到人類水平。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)


人工智慧系統分析的腦部掃描
Janelle Shane 總結了一組「奇怪」的實驗 (https://aiweirdness.com/post/181621835642/10-things-artificial-intelligence-did-in-2018),展示了機器學習如何地被應用於各種有趣的實驗。有時候,這種實驗能幫助我們真正理解人工智慧系統到底在幹什麼,以及沒有在幹什麼。有些實驗涉及把神經網路用於生成假蛇,或者講笑話。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)


蛇的種類。圖源:https://aiweirdness.com/post/181621835642/10-things-artificial-intelligence-did-in-2018
學習如何使用基於 TensorFlow 的機器學習模型來尋找行星:https://www.blog.google/topics/machine-learning/hunting-planets-machine-learning/
OpenAI 討論了關於釋出大規模無監督語言模型的擔心(包括潛在的惡意使用案例):https://openai.com/blog/better-language-models/#sample1
這個 Colab 筆記本有一份非常棒的入門教材:https://colab.research.google.com/github/google/nucleus/blob/master/nucleus/examples/dna_sequencing_error_correction.ipynb,幫助你學習如何把 Nucleus 和 TensorFlow 用於 DNA 序列糾錯。
這裡還有一篇優秀的博文 (https://blog.floydhub.com/exploring-dna-with-deep-learning/),講了如何把深度學習架構用於探索 DNA。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

圖片來源:https://raw.githubusercontent.com/google/nucleus/master/nucleus/examples/images/consensus-approach-overview.jpg
Alexander Rush 是一位哈佛的自然語言處理研究者,他寫了一篇關於張量問題的

重要文章

,以及它們在當前的庫上是如何暴露出來的。他也談論了關於把命名索引用於張量的提議。
工具和資料集
這裡我主要記錄一些和軟體以及資料集有關的故事,這些軟體和資料集對自然語言處理和機器學習的研究和工程化起到了協助作用。
Hugging Face 釋出了一個熱門的 Transformer 庫 (https://github.com/huggingface/transformers),基於 Pytorch,名為 pytorch-transformers。它使得自然語言處理從業者和研究者能夠簡單地使用最先進的通用架構,諸如 BERT、GPT-2 和 XLM 等。
如果你對如何使用 pytorch-transformers 感興趣,你可以從很多地方開始著手。不過這篇 Roberto Silveira 的教程 (https://rsilveira79.github.io/fermenting_gradients/machine_learning/nlp/pytorch/pytorch-transformer-squad/) 非常詳盡,告訴你如何把這個庫用於機器閱讀理解,我特別喜歡。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)


TensorFlow 2.0 釋出了,

有許多新的功能

。在這裡可以讀到最佳使用方法 (https://medium.com/tensorflow/effective-tensorflow-2-0-best-practices-and-whats-changed-a0ca48767aff)。François Chollet 還在這個 Colab 筆記本 (https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO) 中寫了一篇關於新功能的全面綜述。

PyTorch 1.3

釋出了,多了一大堆的新功能,其中包括命名張量和其它前端的改進。
艾倫人工智慧研究所釋出了 Iconary (https://iconary.allenai.org/),這是一個可以和人類玩猜圖遊戲的人工智慧系統。這項工作結合了影象/語言學習系統和常識推理。他們還發表了一個新的常識推理基準 (Abductive Commonsense Reasoning),名為 Abductive-NLI。
spaCy 釋出了新的庫 (https://explosion.ai/blog/spacy-transformers),支援把 Tranformer 語言模型結合到他們自己的庫中,從而能夠在 spaCy 自然語言處理體系中提取特徵並加以運用。這項工作基於 Hugging Face 開發的著名 Transformer 庫。Maximilien Roberti 還寫了一篇不錯的文章 (https://towardsdatascience.com/fastai-with-transformers-bert-roberta-xlnet-xlm-distilbert-4f41ee18ecb2),講述如何把 fast.ai 的程式碼和 pytorch-transformers 結合起來。
Facebook 人工智慧團隊釋出了 PHYRE (https://phyre.ai/),這是一個物理推理的基準,目標是通過解決各種物理問題,測試人工智慧系統物理推理的能力。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

圖片來源:https://phyre.ai/
史丹佛的自然語言處理組釋出了 StanfordNLP 0.2.0 (https://stanfordnlp.github.io/stanfordnlp/) 版本,這是一個用於自然語言分析的 Python 庫。你可以在 70 多種不同的語言上進行不同的語言分析,比如詞形還原和詞性標註。
GQA (https://cs.stanford.edu/people/dorarad/gqa/) 是一個視覺問答資料集,協助在視覺推理方面的研究。
exBERT(exBERT: A Visual Analysis Tool to Explore Learned Representations in Transformers Models)是一個視覺化互動工具,探索 Transformer 語言模型的嵌入向量和注意力。你可以在這裡 (http://exbert.net/) 嘗試 demo。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

exBERT。圖源:http://exbert.net/
Distill 發表了一篇關於如何視覺化迴圈神經網路 (RNN) 的記憶過程的文章 (https://distill.pub/2019/memorization-in-rnns/)。

Mathpix

這個工具可以根據你提供的一張公式圖片輸出 latex 版本的公式。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

圖片來源:https://mathpix.com/
Parl.ai (https://parl.ai/) 這個平臺擁有許多知名資料集,涉及各項研究,包括對話和對話式人工智慧。
Uber 的研究者們釋出了 Ludwig (https://uber.github.io/ludwig/),這個開源的工具使得使用者們能夠簡單地訓練和測試深度學習的模型,只要寫幾行程式碼即可。主要是為了避免訓練和測試模型時的程式碼量。
谷歌人工智慧團隊釋出了

「自然問題」資料集

,這是一個用於訓練和評測開放域上的問答系統的大規模語料庫。
部落格文章
今年是 NLP 資料科學作家和愛好者數量激增的一年。這對我們的領域非常有益,我們也鼓勵更多的相互討論和學習。這裡我列出一些有趣且必看的部落格文章:
Christian Perone 對最大似然估計(MLE)和最大後驗概率(MAP)進行了詳細介紹,它們是幫助我們理解如何估計模型引數的重要原理。文章連結:http://blog.christianperone.com/2019/01/mle/
Reiichiro Nakano 在部落格中討論了基於對抗性魯棒分類器的神經風格遷移。文章連結:https://reiinakano.com/2019/06/21/robust-neural-style-transfer.html;Colab 筆記本連結:https://colab.research.google.com/github/reiinakano/adversarially-robust-neural-style-transfer/blob/master/Robust_Neural_Style_Transfer.ipynb
Saif M. Mohammad 撰寫了一系列文章討論了 ACL 的歷時分析。文章連結:https://medium.com/@nlpscholar/state-of-nlp-cbf768492f90

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

「三張圖分別表示從事 NLP 的平均學術年齡、中位數學術年齡以及作者在學術年齡發第一篇論文的百分比。」——圖片來源 https://medium.com/@nlpscholar/state-of-nlp-cbf768492f90
語言模型可以學習語法嗎?這篇文章通過使用結構探測證明使用上下文表示法和查詢樹結構的方法是可行的。文章連結:https://nlp.stanford.edu/~johnhew/structural-probe.html

Andrej Karpathy 寫了一篇部落格

總結了如何有效訓練神經網路的方法並進行了實踐。
Google AI 研究人員和其他研究人員協作加強了對使用 BERT 模型的搜尋理解。像 BERT 這樣的語境化模型足以理解搜尋行為背後的意圖。文章連結:https://www.blog.google/products/search/search-language-understanding-bert
Rectified Adam(RAdam)是基於 Adam 優化器的新優化技術,有助於改善 AI 架構。在尋找更好、更穩定的優化器上我們已經付出許多努力,但該文章稱要將重點放在優化的其他方面,這些方面對於提高收斂性同樣重要。文章連結:https://medium.com/@lessw/new-state-of-the-art-ai-optimizer-rectified-adam-radam-5d854730807b
隨著近來機器學習工具的大量開發,關於如何實現機器學習系統以解決實際問題的討論也越來越多。

Chip Huyen 寫了一篇有趣的文章討論了機器學習系統設計,強調了超引數調優和資料管道

NVIDIA 創造了最大語言模型的記錄

,訓練了數十億引數的模型。
Abigail See 撰寫了一篇不錯的部落格,解釋如何在為執行自然語言生成任務而開發的系統環境中進行良好的對話。文章連結:http://www.abigailsee.com/2019/08/13/what-makes-a-good-conversation.html
Google AI 釋出了兩個自然語言對話資料集,旨在使用更復雜和自然的對話資料集來改善對話式應用程式,例如數字助理。文章連結:https://ai.googleblog.com/2019/09/announcing-two-new-natural-language.html
深度強化學習仍然是 AI 領域中討論最廣泛的話題之一,

它甚至引起了心理學和神經科學領域人員的興趣


Samira Abner 撰寫了一篇部落格,總結了 Transfoemer 和膠囊網路及其連線背後的主要構造要素。文章連結:https://staff.fnwi.uva.nl/s.abnar/?p=108
Adam Kosiorek 在基於堆疊的膠囊自動編碼器(一種膠囊網路的無監督版本)上寫了這篇文章,可以應用於目標檢測。文章連結:http://akosiorek.github.io/ml/2019/06/23/stacked_capsule_autoencoders.html

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

圖片來源:https://staff.fnwi.uva.nl/s.abnar/?p=108
研究人員在 Distill 上發表了一篇互動文章,旨在展示對高斯過程視覺化的探索。文章連結:https://distill.pub/2019/visual-exploration-gaussian-processes/
通過 Distill,Augustus Odena 呼籲研究人員解決有關 GAN 的幾個重要的開放性問題。
圖卷積網路(GCN)的 PyTorch 實現如下,可用於對垃圾郵件傳送者和非垃圾郵件傳送者進行分類。PyTorch 實現:https://github.com/zaidalyafeai/Notebooks/blob/master/Deep_GCN_Spam.ipynb
年初,VentureBeat 釋出了由 Rumman Chowdury、Hilary Mason、Andrew Ng 和 Yan LeCun 等專家參與的

2019 預測列表

。可以看看他們的預測是否正確。
這篇文章解釋瞭如何優化 BERT 以執行多標籤文字分類:https://medium.com/huggingface/multi-label-text-classification-using-bert-the-mighty-transformer-69714fa3fb3d
由於 BERT 的流行,在過去的幾個月中,許多研究人員開發了一些方法來「壓縮」BERT,在原來版本的基礎上構建更快、更小且記憶體效率更高的版本。Mitchell A.Gordon 撰寫了一篇介紹壓縮型別與使用方法的綜述。文章連結:http://mitchgordon.me/machine/learning/2019/11/18/all-the-ways-to-compress-BERT.html
超級智慧仍然是專家們爭論的話題。這是一個需要正確理解框架、政策以及仔細觀察的重要主題。我發現了一系列的有趣綜合文章,對於理解有關超級智慧的問題和注意事項很有用。文章連結:https://www.fhi.ox.ac.uk/wp-content/uploads/Reframing_Superintelligence_FHI-TR-2019-1.1-1.pdf
Eric Jang 寫了一篇部落格介紹了元學習的概念,旨在建立和訓練機器學習模型,這種模型不僅可以預測,而且可以學習。文章連結:https://blog.evjang.com/2019/02/maml-jax.html
Sebastian Ruder 總結了 AAAI 2019 的會議重點:https://ruder.io/aaai-2019-highlights/
圖神經網路今年受到了廣泛的討論。David Mack 撰寫了一篇不錯的視覺化文章,介紹了他們如何使用此技術並執行最短路徑計算。文章連結:https://medium.com/octavian-ai/finding-shortest-paths-with-graph-networks-807c5bbfc9c8
貝葉斯方法仍然是一個有趣的話題,尤其是如何將它們應用於神經網路,以避免過擬合等常見問題。下面是 Kumar Shridhar 關於該話題建議的閱讀清單。文章連結:https://medium.com/neuralspace/bayesian-neural-network-series-post-1-need-for-bayesian-networks-e209e66b70b2

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

「以點估計為權重的網路與以概率分佈為權重的網路」。圖片來源:https://arxiv.org/pdf/1806.05978.pdf
教程資源
在這一章,我將列出一系列教程資源。
CMU 釋出了「NLP 神經網路」

課程材料和教學大綱


Elvis Saravia 和 Soujanya Poria 釋出了一個名為

NLP-Overview

的專案,旨在幫助學生和從業人員獲得適用於 NLP 的深度學習技術的簡要綜述,包括理論、演算法、應用程式和最新技術成果,相關連結:https://github.com/omarsar/nlp_overview

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

NLP 概述。
微軟研究實驗室在資料科學的基礎上出版了免費的電子書,範圍從馬爾可夫鏈蒙特卡羅到隨機圖。電子書連結:https://www.datasciencecentral.com/profiles/blogs/new-book-foundations-of-data-science-from-microsoft-research-lab
《機器學習數學》是一本免費的電子書,介紹了機器學習中使用的最重要的數學概念。它還包括一些描述機器學習部分的 Jupyter 筆記本教程。電子書連結:https://mml-book.github.io/
Jean Gallier 和 Jocelyn Quaintance 撰寫了一本免費電子書,涵蓋了機器學習中使用的數學概念。電子書連結:https://www.cis.upenn.edu/~jean/math-deep.pdf
史丹佛大學釋出了有關「自然語言理解」課程的

視訊播放列表


關於學習,OpenAI 整理了一份很棒的清單,提供了有關如何繼續學習和提高機器學習技能的建議。他們的員工每天都使用這些方法來不斷學習和擴充套件知識。清單連結:https://openai.com/blog/learning-day/

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)


Adrian Rosebrock 釋出了一本長達 81 頁的指南,介紹如何使用 Python 和 OpenCV 實現計算機視覺。指南連結:https://www.pyimagesearch.com/start-here/
Emily M. Bender 和 Alex Lascarides 出版了一本名為《NLP 的語言基礎》的書。這本書的主要討論了 NLP 的意義,解釋了 NLP 在語義學和語用學方面的基礎。電子書連結:http://www.morganclaypoolpublishers.com/catalog_Orig/product_info.php?products_id=1451
Elad Hazan 在「機器學習的優化」上發表了他的課堂筆記,旨在通過簡明的數學和符號將機器學習訓練問題介紹為一個優化問題。筆記連結:https://drive.google.com/file/d/1GIDnw7T-NT4Do3eC0B5kYJlzwOs6nzIO/view
Deeplearning.ai 還發表了一篇很棒的文章,討論了使用直觀、可互動的方式進行神經網路引數優化。文章連結:https://www.deeplearning.ai/ai-notes/optimization/?utm_source=social&utm_medium=twitter&utm_campaign=BlogAINotesOptimizationAugust272019
Andreas Mueller 釋出了一個視訊列表,對應一個名為「應用機器學習」的新課程。視訊連結:https://www.youtube.com/playlist?list=PL_pVmAaAnxIQGzQS2oI3OWEPT-dpmwTfA
Fast.ai 釋出了新 MOOC 課程,名為「從基礎中進行深度學習」。課程連線:https://www.fast.ai/2019/06/28/course-p2v3/
麻省理工學院釋出了有關「深度學習入門」課程的所有視訊和教學大綱。課程連結:https://www.youtube.com/playlist?list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI
Chip Huyen 在推特上釋出了一條極好的

入門機器學習的免費線上課程清單


Andrew Trask 出版的書名為《Grokking-Deep-Learning》。這本書是理解神經網路體系結構基本組成的一個好起點。電子書連結:https://github.com/iamtrask/Grokking-Deep-Learning
Sebastian Raschka 在 github 中上傳了 80 份筆記本,其中

介紹瞭如何實現不同的深度學習模型

,如 RNN 和 CNN。重要的是,所有模型都已在 PyTorch 和 TensorFlow 中實現。
教程(https://medium.com/@d3lm/understand-tensorflow-by-mimicking-its-api-from-scratch-faa55787170d)能夠幫你深入瞭解 TensorFlow 的工作原理。

Christian Perone 為 PyTorch 設計了一個專案


Fast.ai 還發布了一個名為「NLP 入門」的課程,並附帶一個播放列表。主題範圍從情感分析到主題建模再到 Transformer。視訊連結:https://www.youtube.com/playlist?list=PLtmWHNX-gukKocXQOkQjuVxglSDYWsSh9
Xavier Bresson 的演講可以幫助理解用於分子生成的圖卷積神經網路。演講連結:https://ipam.wistia.com/medias/excbyr8gvv;PPT :http://helper.ipam.ucla.edu/publications/glws4/glws4_16076.pdf。
討論如何預訓練 GNN 的論文:https://arxiv.org/abs/1905.12265
在圖網路的主題中,一些工程師使用圖網路來預測分子和晶體的特性:https://www.eurekalert.org/pub_releases/2019-06/uoc--eug060719.php。
Google AI 團隊還發布了一篇出色的部落格解釋了他們如何使用 GNN 進行氣味預測。部落格連結:https://ai.googleblog.com/2019/10/learning-to-smell-using-deep-learning.html
如果你對使用 Graph Neural Networks 感興趣,這裡是各種 GNN 及其應用的全面概述:https://arxiv.org/pdf/1812.08434.pdf
這是約翰霍普金斯大學的 Rene Vidal 等無監督學習方法的視訊的播放列表:https://www.youtube.com/playlist?list=PLFInMJnvb3owAddRh4qk2gCX25kGLDay-
如果你有興趣將預訓練的 TensorFlow 模型轉換為 PyTorch,可以看 Thomas Wolf 的這篇部落格:https://medium.com/huggingface/from-tensorflow-to-pytorch-265f40ef2a28
想了解生成型深度學習嗎?David Foster 寫了一本很棒的書,教資料科學家如何應用 GAN 和編碼器-解碼器模型來完成繪畫、寫作和作曲。電子書連結:https://www.oreilly.com/library/view/generative-deep-learning/9781492041931/;這是本書隨附的官方程式碼:https://github.com/davidADSP/GDL_code,其中包含 TensorFlow 程式碼。利用(https://github.com/MLSlayer/Generative-Deep-Learning-Code-in-Pytorch)也可以將程式碼轉換為 PyTorch。
該 Colab 筆記本包含一些程式碼塊,用於實踐和了解因果推理概念,例如干預(intervention)、反事實等。連結:https://colab.research.google.com/drive/1rjjjA7teiZVHJCMTVD8KlZNu3EjS7Dmu#scrollTo=T9xtzFTJ1Uwf
這是 Sebastian Ruder,Matthew Peters,Swabha Swayamdipta 和 Thomas Wolf 提供的 NAACL 2019 的「自然語言處理中的轉移學習」教程的材料。材料連結:https://github.com/huggingface/naacl_transfer_learning_tutorial。他們還提供了配套的 Google Colab 筆記本:https://colab.research.google.com/drive/1iDHCYIrWswIKp-n-pOg69xLoZO09MEgf
Jay Alammar 的另一篇很棒的部落格關於

資料表示

的主題。他還寫了許多其他有趣的插圖指南,包括 GPT-2 和 BERT。Peter Bloem 還發表了非常詳細的部落格,解釋了構成 Transformer 的所有要素。部落格連結:http://peterbloem.nl/blog/transformers

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

標準自我注意力機制的視覺化圖,圖片來源:http://peterbloem.nl/blog/transformers 
這是 Mihail Eric 撰寫的關於 ACL 2019 NLP 趨勢的精彩概述。包括將知識注入 NLP 體系結構、可解釋性和減少偏見等。文章連結:https://www.mihaileric.com/posts/nlp-trends-acl-2019/。如果你感興趣,這裡還有另外幾個概述。連結 2:https://medium.com/@mgalkin/knowledge-graphs-in-natural-language-processing-acl-2019-7a14eb20fce8和連結 3:http:/ /noecasas.com/post/acl2019/ 。
史丹佛(CStan)釋出了 CS231n 2019 版的完整課程大綱。課程連結:http://cs231n.stanford.edu/syllabus.html
David Abel 釋出了 ICLR 2019 的概述。文章連結:https://david-abel.github.io/notes/iclr_2019.pdf。他也提供了

NeurlPS2019 的綜述


李沐的《

動手學深度學習

》是一本很棒的書,它向讀者介紹了有關深度學習的相關內容。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)


關於 BERT、ELMo等用於遷移學習 NLP 的插圖指南連結如下:http://jalammar.github.io/illustrated-bert/

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)

圖片來源:http://jalammar.github.io/illustrated-bert/
Fast.ai 釋出了 2019 年版「面向程式設計師的實用深度學習」課程。課程連結:https://www.fast.ai/2019/01/24/course-v3/
由 Pieter Abbeel 和其他教授設計的這門課程,可以幫助你瞭解關於深度無監督學習的知識。課程連結:https://sites.google.com/view/berkeley-cs294-158-sp19/home
Gilbert Strang 出版了一本

與線性代數和神經網路有關的新書

。電子書連結:http://math.mit.edu/~gs/learningfromdata/
「Scipy 講義」是一系列課程,教你如何掌握 matplotlib,NumPy 和 SciPy 等工具。課程連結:https://scipy-lectures.org/
這裡還有一份關於理解高斯過程的優秀課程。課程連結:https://peterroelants.github.io/posts/gaussian-process-tutorial/
這是一篇必讀的文章,其中 Lilian Weng 深入探討了通用語言模型,例如 ULMFit、OpenAI GPT-2 和 BERT。文章連結:https://lilianweng.github.io/lil-log/2019/01/31/generalized-language-models.html
Papers with Code 是一個網站,顯示了精選的帶有程式碼和最新成果的機器學習論文列表:https://paperswithcode.com/
Christoph Molnar 釋出了第一版的《可解釋性機器學習》,該書涉及用於更好地解釋機器學習演算法的重要技術。連結:https://christophm.github.io/interpretable-ml-book/
David Bamman 釋出了完整的課程提綱以及加州大學伯克利分校自然語言處理課程的 PPT。課程連結:http://people.ischool.berkeley.edu/~dbamman/nlp18.html
伯克利釋出了「應用 NLP」類的所有材料。連結:https://github.com/dbamman/anlp19
Aerin Kim 是 Microsoft 的高階研究工程師,她撰寫了與應用數學和深度學習有關的文章,主題包括條件獨立性、伽瑪分佈等。文章連結:https://towardsdatascience.com/@aerinykim
Tai-Danae Bradley 撰寫了部落格,討論了

如何理解矩陣和張量

。本文以視覺化效果編寫,有助於更好地理解在矩陣上執行的某些轉換和操作。

2019 NLP大全:論文、部落格、教程、工程進展全梳理(長文預警)


人工智慧中的道德
倫理學可能是今年人工智慧系統中討論最多的方面之一,其中包括圍繞偏見、公平和透明度等方面的討論。本節提供了有關該主題的有趣故事和論文清單:
「Does mitigating ML's impact disparity require treatment disparity?」一文討論了通過對真實資料集進行實驗且應用不同學習過程的結果。文章連結:http://papers.nips.cc/paper/8035-does-mitigating-mls-impact-disparity-require-treatment-disparity
HuggingFace 發表了一篇文章在人工智慧對話中開源 NLP 技術背景下的倫理問題。文章連結:https://medium.com/huggingface/ethical-analysis-of-the-open-sourcing-a-state-of-the-art-the-art-conversational-ai-852113c324b2
隨著我們繼續將 AI 的技術引入社會,探究倫理在 AI 研究中的作用是一項重要的工作。下面的論文提供了「倫理相關的研究在領先的人工智慧、機器學習和機器人領域的應用」的分析。文章連結:https://arxiv.org/abs/1809.08328
在 NAACL 2019 上發表的論文討論了除偏方法如何掩蓋詞嵌入中的性別偏見。文章連結:https://arxiv.org/abs/1903.03862
可以聽聽 Zachary Lipton 在他的論文《Troubling Trends in ML Scholarship》中做的演講:https://www.youtube.com/watch?v=A2Jtqi_oa2Y]。附摘要:https://medium.com/dair-ai/an-overview-of-troubling-trends-in-machine-learning-scholarship-582df3caa518
Gary Marcus 和 Ernest Davis 發表了他們的書《重啟人工智慧:構建我們可信賴的人工智慧》。本書的主題是討論實現強大的人工智慧必須採取的步驟。連結:https://www.amazon.com/Rebooting-AI-Building-Artificial-Intelligence/dp/1524748250
關於 AI 進步的話題,François Chollet 也寫了一篇令人印象深刻的論文,提出更好的方法來測量智力。文章連結:https://arxiv.org/abs/1911.01547
由 Andrew Trask 提出的有關差異化隱私、聯合學習和加密 AI 等主題的 Udacity 課程連結如下:https://www.udacity.com/course/secure-and-private-ai--ud185
關於隱私主題,Emma Bluemke 撰寫了一篇很棒的文章,討論瞭如何在保護患者隱私的同時訓練機器學習模型。文章連結:https://blog.openmined.org/federated-learning-differential-privacy-and-encrypted-computation-for-medical-imaging/
在今年年初,Mariya Yao 釋出了一份關於 AI 倫理的綜合研究論文摘要。儘管論文參考清單來自 2018 年,但它們今天仍然適用。文章連結:https://www.topbots.com/most-important-ai-ethics-research/ 
原文連結:https://medium.com/dair-ai/nlp-year-in-review-2019-fb8d523bcb19原文 PDF:

https://github.com/omarsar/nlp_highlights





https://www.toutiao.com/i6797212684514230788/



來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2677330/,如需轉載,請註明出處,否則將追究法律責任。

相關文章