今晚直播:非自迴歸神經機器翻譯 | PhD Talk #24
在本期 PhD Talk 中,來自香港大學的博士生顧佳濤,將向大家介紹他們在加速神經機器翻譯(NMT)方向的一些進展。
本次 Talk 分為三部分:
第一部分將以 Google Brain 的 Transformer 為基礎,簡要介紹一些神經機器翻譯的基本知識、主要進展和侷限。
第二部分是這期的主要內容,嘉賓將以第一作者身份,為大家詳細介紹他們最近在 ICLR2018 上發表的文章 Non-autoregressive Neural Machine Translation。本文嘗試用非自迴歸的方式改造 Transformer,在效能下降不多的情況下實現 10 倍左右的解碼速度。
最後,作為 brainstorming,嘉賓會和大家一起交流對於非自迴歸解碼幾個已經實現或者可能的研究方向和應用。
■ 論文 | Non-Autoregressive Neural Machine Translation
■ 連結 | https://www.paperweekly.site/papers/1093
■ 作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher
嘉賓介紹
顧佳濤
香港大學博士生
Jiatao Gu is currently a 4th year Ph.D. student at the Hong Kong University in Victor O.K. Li’s research group.
He was a former research intern at Salesforce Research (September ~ December 2017) and Microsoft Research (April ~ August 2017). He was also a former visiting student in Kyunghyun Cho’s group at NYU (June 2016 ~ January 2017). Before that, he received his Bachelor's degree at Tsinghua University in 2014. Jiatao's research interests cover natural language processing and deep learning, especially on neural machine translation.
He has published papers on ACL, EMNLP, NAACL, EACL, AAAI, and ICLR.
PhD Talk
非自迴歸神經機器翻譯
香港大學博士生顧佳濤
內容分享√線上Q&A√
活動形式:PPT直播
活動時間
3 月 9 日(週五)20:00-21:00
45 min 分享 + 15 min Q&A
長按識別二維碼,進入直播間
*或使用鬥魚App搜尋「1743775」
往期回顧
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報導人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。
▽ 點選 | 閱讀原文 | 加入社群刷論文
相關文章
- 直播實錄 | 非自迴歸神經機器翻譯 + ICLR 2018 論文解讀ICLR
- 香港大學顧佳濤:非自迴歸神經機器翻譯 | 直播預告
- 神經機器翻譯實戰
- TensorFlow.NET機器學習入門【3】採用神經網路實現非線性迴歸機器學習神經網路
- 低資源神經機器翻譯MetaNMT :來自MAML與NLP的溫柔救贖
- 機器學習簡介之基礎理論- 線性迴歸、邏輯迴歸、神經網路機器學習邏輯迴歸神經網路
- 多對多多語言神經機器翻譯的對比學習
- torch神經網路--線性迴歸神經網路
- 微軟提出新型通用神經機器翻譯方法,挑戰低資源語言翻譯問題微軟
- 從規則到神經網路:機器翻譯技術的演化之路神經網路
- NLP教程(6) - 神經機器翻譯、seq2seq與注意力機制
- [非專業翻譯] Mapster - 對映器
- (二)非線性迴圈神經網路(RNN)神經網路RNN
- 翻譯:非遞迴CTE(已提交到MariaDB官方手冊)遞迴
- 迴圈神經網路LSTM RNN迴歸:sin曲線預測神經網路RNN
- Python TensorFlow深度神經網路迴歸:keras.SequentialPython神經網路Keras
- 機器學習 | 線性迴歸與邏輯迴歸機器學習邏輯迴歸
- 機器閱讀理解 / 知識庫 / 深度學習 / 對話系統 / 神經機器翻譯 | 本週值得讀深度學習
- [譯] RNN 迴圈神經網路系列 3:編碼、解碼器RNN神經網路
- 機器學習-樹迴歸機器學習
- 入門Python神經機器翻譯,這是一篇非常精簡的實戰指南Python
- 用強化學習做神經機器翻譯:中山大學&MSRA填補多項空白強化學習
- 哪個才是解決迴歸問題的最佳演算法?線性迴歸、神經網路還是隨機森林?演算法神經網路隨機森林
- ACL 2018 | TA-NMT:利用大語種語料,提升小語種神經機器翻譯能力
- 機器學習:邏輯迴歸機器學習邏輯迴歸
- 機器學習:線性迴歸機器學習
- 機器學習:迴歸問題機器學習
- 機器學習之Logistic迴歸機器學習
- 程式翻譯新突破:UC伯克利提出樹到樹的程式翻譯神經網路神經網路
- 機器學習:線性迴歸(下)機器學習
- 機器學習之迴歸指標機器學習指標
- 機器學習之線性迴歸機器學習
- 機器學習整理(線性迴歸)機器學習
- 機器學習整理(邏輯迴歸)機器學習邏輯迴歸
- 機器學習之邏輯迴歸機器學習邏輯迴歸
- 論機器翻譯之淺薄
- 第四期知識與認知圖譜:神經機器翻譯也應該嵌入「知識」
- 谷歌大腦神經機器翻譯大規模實驗:尋找最優的超引數組合谷歌