機器閱讀理解 / 知識庫 / 深度學習 / 對話系統 / 神經機器翻譯 | 本週值得讀
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背後的探索和思考。
在這個欄目裡,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點選本文底部的「閱讀原文」即刻加入社群,檢視更多最新論文推薦。
這是 PaperDaily 的第 53 篇文章@RefluxNing 推薦
#Machine Reading Comprehension
本文是 CMU 和 Google Brain 發表於 ICLR 2018 的文章,論文改變了以往機器閱讀理解均使用 RNN 進行建模的習慣,使用卷積神經網路結合自注意力機制,完成機器閱讀理解任務。
其中作者假設,卷積神經網路可建模區域性結構資訊,而自注意力機制可建模全文互動(Interaction)關係,這兩點就足以完成機器閱讀理解任務。
@xcwill 推薦
#Dialog Systems
本文來自劍橋大學和 PolyAI,論文提出了一種新的強化學習方法來解決對話策略的優化問題。
Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN
@Zsank 推薦
#Recurrent Neural Networks
本文使用 ReLU 等非飽和啟用函式使網路變得更具有魯棒性,可以處理很長的序列(超過 5000 個時間步),可以構建很深的網路(實驗中用了 21 層)。在各種任務中取得了比 LSTM 更好的效果。
Joint Training for Neural Machine Translation Models with Monolingual Data@paperweekly 推薦
#Neural Machine Translation
本文提出的方法可以認為是從源語言到目標語言翻譯的學習與從目標語言到源語言翻譯的學習的結合。中英翻譯和英中翻譯都使用初始並行資料來訓練,在每次訓練的迭代過程中,中英翻譯系統將中文句子翻譯成英文句子,從而獲得新的句對,而該句對又可以反過來補充到英中翻譯系統的資料集中。
同理,這個過程也可以反向進行。這樣雙向融合不僅使得兩個系統的訓練資料集大大增加,而且準確率也大幅提高。
@Zsank 推薦
#Question Answering
社群問答有一個很主要的挑戰就是句子間詞彙與語義的鴻溝。本文使用了 phrase-level 和 token-level 兩個層次的 attention 來對句子中的詞賦予不同的權重,並參照 CNTN 模型用神經張量網路計算句子相似度的基礎上,引入額外特徵形成 3-way 互動張量相似度計算。
圍繞答案選擇、最佳答案選擇、答案觸發三個任務,論文提出的模型 RTM 取得了多個 state-of-art 效果。
Biased Importance Sampling for Deep Neural Network Training@chlr1995 推薦
#Importance Sampling
Importance Sampling 在凸問題的隨機優化上已經得到了成功的應用。但是在 DNN 上的優化方面結合 Importance Sampling 存在困難,主要是缺乏有效的度量importance 的指標。
本文提出了一個基於 loss 的 importance 度量指標,並且提出了一種利用小型模型的 loss 近似方法,避免了深度模型的大規模計算。經實驗表明,結合了 Importance Sampling 的訓練在速度上有很大的提高。
Question Answering on Knowledge Bases and Text using Universal Schema and Memory Networks@guotong1988 推薦
#Knowledge Base
傳統 QA 問題的解決方法是從知識庫或者生文字中推測答案,本文將通用模式擴充套件到自然語言 QA 的應用當中,採用記憶網路來關注文字和 KB 相結合的大量事實。
@paperweekly 推薦
#Sequence Labeling
編碼器 - 解碼器框架在許多工中取得了可喜的進展,包括機器翻譯、文字摘要、QA、對話系統、影像標記等,但它還沒有涉及審議。
審議是人們日常生活中的一種常見行為,如閱讀新聞、撰寫論文/文章/書籍,在本文中,團隊將審議過程引入到編碼器 - 解碼器框架中,並提出用審議網路進行序列生成。
本文由 AI 學術社群 PaperWeekly 精選推薦,社群目前已覆蓋自然語言處理、計算機視覺、人工智慧、機器學習、資料探勘和資訊檢索等研究方向,點選「閱讀原文」即刻加入社群!
點選以下標題檢視往期推薦:
#榜 單 公 布 #
2017年度最值得讀的AI論文 | NLP篇 · 評選結果公佈
2017年度最值得讀的AI論文 | CV篇 · 評選結果公佈
我是彩蛋
解鎖新功能:熱門職位推薦!
PaperWeekly小程式升級啦
今日arXiv√猜你喜歡√熱門職位√
找全職找實習都不是問題
解鎖方式
1. 識別下方二維碼開啟小程式
2. 用PaperWeekly社群賬號進行登陸
3. 登陸後即可解鎖所有功能
職位釋出
請新增小助手微信(pwbot02)進行諮詢
長按識別二維碼,使用小程式
*點選閱讀原文即可註冊
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報導人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。
▽ 點選 | 閱讀原文 | 加入社群一起刷論文
相關文章
- 多對多多語言神經機器翻譯的對比學習
- 神經機器翻譯實戰
- 深度學習在NLP中的運用?從分詞、詞性到機器翻譯、對話系統深度學習分詞
- 「推薦系統的廣泛和深度學習」- 論文閱讀和翻譯深度學習
- 機器閱讀理解Match-LSTM模型模型
- 構建和優化深度學習模型(神經網路機器識圖)優化深度學習模型神經網路
- 第四期知識與認知圖譜:神經機器翻譯也應該嵌入「知識」
- 機器閱讀理解Attention-over-Attention模型模型
- 用Keras搞一個閱讀理解機器人Keras機器人
- 資源:10份機器閱讀理解資料集
- 直播實錄 | 非自迴歸神經機器翻譯 + ICLR 2018 論文解讀ICLR
- 用強化學習做神經機器翻譯:中山大學&MSRA填補多項空白強化學習
- 機器閱讀理解模型Stanford Attentive Reader原始碼模型原始碼
- EasyNLP帶你實現中英文機器閱讀理解
- 從短句到長文,計算機如何學習閱讀理解計算機
- 今晚直播:非自迴歸神經機器翻譯 | PhD Talk #24
- 圖解機器學* | 機器學*基礎知識圖解
- 谷歌神經網路機器翻譯NMT:人人可利用TensorFlow快速建立翻譯模型谷歌神經網路模型
- 機器閱讀理解與文字問答技術研究 | 博士學位論文
- 選對論文,效率提升50% | 本週值得讀
- 【EMNLP 2023】基於知識遷移的跨語言機器閱讀理解演算法演算法
- 【深度學習】機率論知識複習深度學習
- 騰訊系閱讀APP的深度學習方法論APP深度學習
- 清華 NLP 團隊推薦:必讀的77篇機器閱讀理解論文
- 機器閱讀理解打破人類記錄,解讀阿里iDST SLQA 技術阿里
- Flux 深度解讀(翻譯)UX
- NLP教程(6) - 神經機器翻譯、seq2seq與注意力機制
- 什麼值得讀 ? 計算機基礎知識速成課計算機
- 深度學習:智慧對話機器人適用場景與技術解析深度學習機器人
- 微軟機器翻譯系統:中-英翻譯水平可“與人類媲美”微軟
- 從規則到神經網路:機器翻譯技術的演化之路神經網路
- iOS 系統分析(一) 閱讀核心準備知識iOS
- 理解深度學習:神經網路的雙胞胎兄弟-自編碼器(上)深度學習神經網路
- 一文讀懂深度學習:從神經元到BERT深度學習
- 微軟提出新型通用神經機器翻譯方法,挑戰低資源語言翻譯問題微軟
- 初探神經網路與深度學習 —— 感知器神經網路深度學習
- “小會話,大學問”:如何讓聊天機器人讀懂對話歷史?會話機器人
- 論文推薦:機器閱讀理解,文字摘要,Seq2Seq加速