機器閱讀理解 / 知識庫 / 深度學習 / 對話系統 / 神經機器翻譯 | 本週值得讀
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背後的探索和思考。
在這個欄目裡,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點選本文底部的「閱讀原文」即刻加入社群,檢視更多最新論文推薦。
這是 PaperDaily 的第 53 篇文章@RefluxNing 推薦
#Machine Reading Comprehension
本文是 CMU 和 Google Brain 發表於 ICLR 2018 的文章,論文改變了以往機器閱讀理解均使用 RNN 進行建模的習慣,使用卷積神經網路結合自注意力機制,完成機器閱讀理解任務。
其中作者假設,卷積神經網路可建模區域性結構資訊,而自注意力機制可建模全文互動(Interaction)關係,這兩點就足以完成機器閱讀理解任務。
@xcwill 推薦
#Dialog Systems
本文來自劍橋大學和 PolyAI,論文提出了一種新的強化學習方法來解決對話策略的優化問題。
Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN
@Zsank 推薦
#Recurrent Neural Networks
本文使用 ReLU 等非飽和啟用函式使網路變得更具有魯棒性,可以處理很長的序列(超過 5000 個時間步),可以構建很深的網路(實驗中用了 21 層)。在各種任務中取得了比 LSTM 更好的效果。
Joint Training for Neural Machine Translation Models with Monolingual Data@paperweekly 推薦
#Neural Machine Translation
本文提出的方法可以認為是從源語言到目標語言翻譯的學習與從目標語言到源語言翻譯的學習的結合。中英翻譯和英中翻譯都使用初始並行資料來訓練,在每次訓練的迭代過程中,中英翻譯系統將中文句子翻譯成英文句子,從而獲得新的句對,而該句對又可以反過來補充到英中翻譯系統的資料集中。
同理,這個過程也可以反向進行。這樣雙向融合不僅使得兩個系統的訓練資料集大大增加,而且準確率也大幅提高。
@Zsank 推薦
#Question Answering
社群問答有一個很主要的挑戰就是句子間詞彙與語義的鴻溝。本文使用了 phrase-level 和 token-level 兩個層次的 attention 來對句子中的詞賦予不同的權重,並參照 CNTN 模型用神經張量網路計算句子相似度的基礎上,引入額外特徵形成 3-way 互動張量相似度計算。
圍繞答案選擇、最佳答案選擇、答案觸發三個任務,論文提出的模型 RTM 取得了多個 state-of-art 效果。
Biased Importance Sampling for Deep Neural Network Training@chlr1995 推薦
#Importance Sampling
Importance Sampling 在凸問題的隨機優化上已經得到了成功的應用。但是在 DNN 上的優化方面結合 Importance Sampling 存在困難,主要是缺乏有效的度量importance 的指標。
本文提出了一個基於 loss 的 importance 度量指標,並且提出了一種利用小型模型的 loss 近似方法,避免了深度模型的大規模計算。經實驗表明,結合了 Importance Sampling 的訓練在速度上有很大的提高。
Question Answering on Knowledge Bases and Text using Universal Schema and Memory Networks@guotong1988 推薦
#Knowledge Base
傳統 QA 問題的解決方法是從知識庫或者生文字中推測答案,本文將通用模式擴充套件到自然語言 QA 的應用當中,採用記憶網路來關注文字和 KB 相結合的大量事實。
@paperweekly 推薦
#Sequence Labeling
編碼器 - 解碼器框架在許多工中取得了可喜的進展,包括機器翻譯、文字摘要、QA、對話系統、影像標記等,但它還沒有涉及審議。
審議是人們日常生活中的一種常見行為,如閱讀新聞、撰寫論文/文章/書籍,在本文中,團隊將審議過程引入到編碼器 - 解碼器框架中,並提出用審議網路進行序列生成。
本文由 AI 學術社群 PaperWeekly 精選推薦,社群目前已覆蓋自然語言處理、計算機視覺、人工智慧、機器學習、資料探勘和資訊檢索等研究方向,點選「閱讀原文」即刻加入社群!
點選以下標題檢視往期推薦:
#榜 單 公 布 #
2017年度最值得讀的AI論文 | NLP篇 · 評選結果公佈
2017年度最值得讀的AI論文 | CV篇 · 評選結果公佈
我是彩蛋
解鎖新功能:熱門職位推薦!
PaperWeekly小程式升級啦
今日arXiv√猜你喜歡√熱門職位√
找全職找實習都不是問題
解鎖方式
1. 識別下方二維碼開啟小程式
2. 用PaperWeekly社群賬號進行登陸
3. 登陸後即可解鎖所有功能
職位釋出
請新增小助手微信(pwbot02)進行諮詢
長按識別二維碼,使用小程式
*點選閱讀原文即可註冊
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報導人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。
▽ 點選 | 閱讀原文 | 加入社群一起刷論文
相關文章
- 多對多多語言神經機器翻譯的對比學習
- 神經機器翻譯實戰
- 「推薦系統的廣泛和深度學習」- 論文閱讀和翻譯深度學習
- 機器閱讀理解Match-LSTM模型模型
- 第四期知識與認知圖譜:神經機器翻譯也應該嵌入「知識」
- 直播實錄 | 非自迴歸神經機器翻譯 + ICLR 2018 論文解讀ICLR
- 機器閱讀理解Attention-over-Attention模型模型
- 構建和優化深度學習模型(神經網路機器識圖)優化深度學習模型神經網路
- 【機器學習基礎】神經網路/深度學習基礎機器學習神經網路深度學習
- 機器閱讀理解模型Stanford Attentive Reader原始碼模型原始碼
- 讀這一篇,對於AI、機器學習、深度學習你都會有基本的認知AI機器學習深度學習
- 【EMNLP 2023】基於知識遷移的跨語言機器閱讀理解演算法演算法
- 世界讀書日 | 機器學習必讀書籍一覽表(附閱讀地址)機器學習
- 用強化學習做神經機器翻譯:中山大學&MSRA填補多項空白強化學習
- 機器學習整理(神經網路)機器學習神經網路
- 機器學習知識積累機器學習
- 人工智慧、機器學習、深度學習、神經網路的關係人工智慧機器學習深度學習神經網路
- Python+Matlab+機器學習+深度神經網路全套學習資料!PythonMatlab機器學習神經網路
- EasyNLP帶你實現中英文機器閱讀理解
- 機器學習學習筆記——基本知識機器學習筆記
- 機器學習知識體系 (強烈推薦)機器學習
- 機器學習之多類別神經網路:一對多機器學習神經網路
- 【機器學習】深度學習與經典機器學習的優劣勢一覽機器學習深度學習
- 機器學習基礎知識1機器學習
- 機器學習知識點整理(三)機器學習
- 今晚直播:非自迴歸神經機器翻譯 | PhD Talk #24
- Flux 深度解讀(翻譯)UX
- 機器學習導圖系列(5):機器學習模型及神經網路模型機器學習模型神經網路
- HMS Core機器學習服務影像超分能力,基於深度學習提升新聞閱讀體驗機器學習深度學習
- 【卷積神經網路學習】(4)機器學習卷積神經網路機器學習
- 選對論文,效率提升50% | 本週值得讀
- 機器閱讀理解與文字問答技術研究 | 博士學位論文
- 機器學習及深度學習的知識點及面試題總結機器學習深度學習面試題
- 圖解機器學* | 機器學*基礎知識圖解
- 機器學習&深度學習之路機器學習深度學習
- 機器學習:神經網路構建(上)機器學習神經網路
- 機器學習:神經網路構建(下)機器學習神經網路
- 【機器學習】搭建神經網路筆記機器學習神經網路筆記