香港大學顧佳濤:非自迴歸神經機器翻譯 | 直播預告
在本期 PhD Talk 中,來自香港大學的博士生顧佳濤,將向大家介紹他們在加速神經機器翻譯(NMT)方向的一些進展。
本次 Talk 分為三部分:
第一部分將以 Google Brain 的 Transformer 為基礎,簡要介紹一些神經機器翻譯的基本知識、主要進展和侷限。
第二部分是這期的主要內容,嘉賓將以第一作者身份,為大家詳細介紹他們最近在 ICLR2018 上發表的文章 Non-autoregressive Neural Machine Translation。本文嘗試用非自迴歸的方式改造 Transformer,在效能下降不多的情況下實現 10 倍左右的解碼速度。
最後,作為 brainstorming,嘉賓會和大家一起交流對於非自迴歸解碼幾個已經實現或者可能的研究方向和應用。
■ 論文 | Non-Autoregressive Neural Machine Translation
■ 連結 | https://www.paperweekly.site/papers/1093
■ 作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher
嘉賓介紹
顧佳濤
香港大學博士生
Jiatao Gu is currently a 4th year Ph.D. student at the Hong Kong University in Victor O.K. Li’s research group.
He was a former research intern at Salesforce Research (September ~ December 2017) and Microsoft Research (April ~ August 2017). He was also a former visiting student in Kyunghyun Cho’s group at NYU (June 2016 ~ January 2017). Before that, he received his Bachelor's degree at Tsinghua University in 2014. Jiatao's research interests cover natural language processing and deep learning, especially on neural machine translation.
He has published papers on ACL, EMNLP, NAACL, EACL, AAAI, and ICLR.
PhD Talk
非自迴歸神經機器翻譯
香港大學博士生顧佳濤
內容分享√線上Q&A√
活動形式:PPT直播
活動時間
3 月 9 日(週五)20:00-21:00
45 min 分享 + 15 min Q&A
長按識別二維碼,進入直播間
*或使用鬥魚App搜尋「1743775」
往期回顧
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報導人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。
▽ 點選 | 閱讀原文 | 加入社群刷論文
相關文章
- 今晚直播:非自迴歸神經機器翻譯 | PhD Talk #24
- 直播實錄 | 非自迴歸神經機器翻譯 + ICLR 2018 論文解讀ICLR
- 神經機器翻譯實戰
- 迴圈神經網路LSTM RNN迴歸:sin曲線預測神經網路RNN
- 谷歌神經網路機器翻譯NMT:人人可利用TensorFlow快速建立翻譯模型谷歌神經網路模型
- 低資源神經機器翻譯MetaNMT :來自MAML與NLP的溫柔救贖
- 多對多多語言神經機器翻譯的對比學習
- 微軟提出新型通用神經機器翻譯方法,挑戰低資源語言翻譯問題微軟
- torch神經網路--線性迴歸神經網路
- 從規則到神經網路:機器翻譯技術的演化之路神經網路
- NLP教程(6) - 神經機器翻譯、seq2seq與注意力機制
- (二)非線性迴圈神經網路(RNN)神經網路RNN
- 機器閱讀理解 / 知識庫 / 深度學習 / 對話系統 / 神經機器翻譯 | 本週值得讀深度學習
- [譯] RNN 迴圈神經網路系列 3:編碼、解碼器RNN神經網路
- TensorFlow.NET機器學習入門【3】採用神經網路實現非線性迴歸機器學習神經網路
- 機器學習簡介之基礎理論- 線性迴歸、邏輯迴歸、神經網路機器學習邏輯迴歸神經網路
- 用強化學習做神經機器翻譯:中山大學&MSRA填補多項空白強化學習
- 翻譯的未來:翻譯機器和譯後編譯編譯
- [非專業翻譯] Mapster - 對映器
- [譯]使用遞迴神經網路(LSTMs)對時序資料進行預測遞迴神經網路
- 哪個才是解決迴歸問題的最佳演算法?線性迴歸、神經網路還是隨機森林?演算法神經網路隨機森林
- 入門Python神經機器翻譯,這是一篇非常精簡的實戰指南Python
- 神奇的神經機器翻譯:從發展脈絡到未來前景(附論文資源)
- 翻譯:非遞迴CTE(已提交到MariaDB官方手冊)遞迴
- Python TensorFlow深度神經網路迴歸:keras.SequentialPython神經網路Keras
- 程式翻譯新突破:UC伯克利提出樹到樹的程式翻譯神經網路神經網路
- 第四期知識與認知圖譜:神經機器翻譯也應該嵌入「知識」
- 谷歌大腦神經機器翻譯大規模實驗:尋找最優的超引數組合谷歌
- 將科幻變成現實,谷歌百度用神經機器翻譯踐行人類的「巴別塔之夢」谷歌
- [譯] RNN 迴圈神經網路系列 2:文字分類RNN神經網路文字分類
- 迴圈神經網路神經網路
- 機器學習回顧篇(3):線性迴歸機器學習
- 論機器翻譯之淺薄
- 佳神程式配置
- ACL 2018 | TA-NMT:利用大語種語料,提升小語種神經機器翻譯能力
- NIPS 2017線上分享第二期:利用價值網路改進神經機器翻譯
- (二)神經網路入門之Logistic迴歸(分類問題)神經網路
- 從環境搭建到迴歸神經網路案例,帶你掌握Keras神經網路Keras