7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

機器之心發表於2020-05-03
本週的重要論文有 DeepMind 聯合哈佛大學等機構造出 3D 模擬小老鼠來探索神經網路,以及伯克利提出的資料增強加持的強化學習方法實現了多環境下的 SOTA結果。

目錄:
  1. DeepEEP Neuroethology of A Virtual Rodent

  2. Training with Quantization Noise for Extreme Model Compression

  3. Lite Transformer With Long-short Range Attention

  4. Decoupling Representation and classifier for long-tailed recognition

  5. Bayesian Deep Learning and a Probabilistic Perspective of Generalization

  6. MakeItTalk: Speaker-Aware Talking Head Animation

  7. Reinforcement Learning with Augmented Data

  8. ArXiv Weekly Radiostation:NLP、CV、ML更多精選論文(附音訊)


論文 1:DeepEEP Neuroethology of A Virtual Rodent

  • 作者:Josh Merel、Diego Aldarondo、Bence Olveczky 等

  • 論文連結:https://openreview.net/pdf?id=SyxrxR4KPS


摘要:人工神經網路算是目前最為先進的人工智慧,這是一類由多層神經元互聯元件構成的機器學習演算法,而「神經元」最早就是來自大腦結構的啟發。儘管人工神經網路中的神經元肯定不同於實際人腦中的工作方式,但越來越多的研究者認為,將二者放在一起研究不僅可以幫助我們理解神經科學,還有助於打造出更加智慧的 AI。

DeepMind 和哈佛大學的研究者就在這一思路上進行了探索。他們提出的是一種小鼠的 3D 模型,這一模型可在模擬環境中接受神經網路的控制。同時,他們用神經科學技術來分析小鼠的大腦生物活動,由此來理解神經網路如何控制小鼠的行為。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

虛擬小鼠身體的構建過程。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

虛擬小鼠分別執行跳過空隙、迷宮覓食、逃離丘陵和前爪精確擊球四項任務。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

虛擬小鼠的行為學分析。

推薦:該論文目前已被 ICLR 2020 大會接收為 Spotlight 論文。

論文 2:Training with Quantization Noise for Extreme Model Compression

  • 作者:Angela Fan、Pierre Stock、Armand Joulin 等

  • 論文連結:https://arxiv.org/pdf/2004.07320.pdf


摘要:剪枝和蒸餾是模型壓縮中常用的兩種方法,透過減少網路權重的數量來刪減引數。還有一種方法就是「量化」,不同的是,它是透過減少每個權重的位元數來壓縮原始網路。標量量化(scalar quantization)等流行的後處理量化方法是讓訓練網路的浮點權重以一個低精度表徵去表示,比如說定寬整數。這些後處理量化方法的好處在於壓縮效率很高,並且能夠加速支援硬體上的推理。但缺點在於,這些近似值造成的誤差會在前向傳播的計算過程中不斷累積,最終導致效能顯著下降。

現在,來自 Facebook 的研究者提出了一種新的模型量化壓縮技術 Quant-Noise,可對模型進行極致壓縮,同時在實際應用部署時保持高效能。在這項研究中,研究者提出了一種僅量化權重子集而非整個網路的壓縮方案。在每次前向傳播時僅量化網路的隨機部分,對大多數權重使用無偏梯度進行更新。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

利用/未利用 Quant-Noise 訓練的兩種情況。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

研究者在訓練過程中將量化噪聲應用於權重子集,從而改善了量化模型的效能。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

在未利用 Quant-Noise 訓練、利用 Quant-Noise 微調以及利用 Quant-Noise 訓練三種不同的設定下,Adaptive Input 架構的困惑度和 RoBERTa 的準確率變化情況。可以看出,直接利用 Quant-Noise 訓練可以實現最低的困惑度和最高的準確率

推薦:該方法可以在訓練過程中採用更簡單的量化方案,這對於具有可訓練引數量化模組來說是非常有用的,比如乘積量化(Product Quantizer,PQ)演算法。

論文 3:Lite Transformer With Long-short Range Attention

  • 作者:Zhanghao Wu、Zhijian Liu、Song Han

  • 論文連結:https://arxiv.org/pdf/2004.11886v1.pdf


摘要:雖然推出還不到 3 年,Transformer 已成為自然語言處理(NLP)領域裡不可或缺的一環。然而這樣流行的演算法卻需求極高的算力才能實現足夠的效能,這對於受到算力和電池嚴格限制的移動端來說有些力不從心。

在本文中,來自 MIT 與上海交大的研究人員提出了一種高效的移動端 NLP 體系結構 Lite Transformer,向在邊緣裝置上部署移動級 NLP 應用邁進了一大。該研究是由 MIT 電氣工程和電腦科學系助理教授韓松領導的。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

Lite Transformer 架構 (a) 和注意力權重的視覺化,傳統的注意力 (b) 過於強調區域性關係建模。

推薦:該論文已被 ICLR 2020 接收。

論文 4:Decoupling Representation and classifier for long-tailed recognition

  • 作者:Bingyi Kang、Saining Xie、Yannis Kalantidis 等

  • 論文連結:https://openreview.net/pdf?id=r1gRTCVFvB


摘要:針對長尾分佈的影像識別任務,目前的研究和實踐提出了大致幾種解決思路,比如分類損失權重重分配(loss re-weighting)、資料集重取樣、尾部少量樣本過取樣、頭部過多樣本欠取樣,或者遷移學習來自新加坡國立大學與 Facebook AI 的研究者提出了一個新穎的解決角度:在學習分類任務的過程中,將通常預設為聯合起來學習的類別特徵表徵與分類器解耦(decoupling),尋求合適的表徵來最小化長尾樣本分類的負面影響

該研究系統性地探究了不同的樣本均衡策略對長尾型資料分類的影響,並進行了詳實的實驗,結果表明:a) 當學習到高質量的類別表徵時,資料不均衡很可能不會成為問題;b) 在學得上述表徵後,即便應用最簡單的樣本均衡取樣方式,也一樣有可能在僅調整分類器的情況下學習到非常魯棒的長尾樣本分類模型。該研究將表徵學習和分類器學習分離開來,分別進行了延伸探究。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

該研究在幾個公開的長尾分類資料集上重新修改了頭部類別和尾部類別的分類決策邊界,並且搭配不同的取樣策略進行交叉訓練實驗。以上是訓練出的不同分類器之間的對比結果。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

在 Places-LT、Imagenet-LT 和 iNaturalist2018 三個公開標準資料集上,該研究提出的策略也獲得了同比更高的分類準確率,實現了新的 SOTA 結果。

推薦:表徵學習和分類器學習分開,尋找合適的表徵來最小化長尾樣本分類的負面影響,這提供了長尾型分類的新思路。論文已被 ICLR 2020 接收。

論文 5:Bayesian Deep Learning and a Probabilistic Perspective of Generalization

  • 作者:Andrew Gordon Wilson、Pavel Izmailov

  • 論文連結:https://arxiv.org/pdf/2002.08791.pdf


摘要:貝葉斯方法的一個關鍵區別性特徵在於邊緣化,而不在於使用單一設定(single setting)的權重。貝葉斯邊緣化尤其可以提升現代深度神經網路準確率和校準。在這篇論文中,來自紐約大學的兩位研究者表示,深度整合可以為近似貝葉斯邊緣化提供一種有效機制,並且他們提出的相關方法在開銷不大的情況下透過在吸引域(basins of attraction)內的邊緣化進一步提升了預測分佈

此外,研究者還探究了神經網路權重上模糊分佈所隱含的函式先驗(prior over function),並從機率性的角度解釋此類模型的泛化效能。從這個角度來看,研究者解釋了對神經網路泛化來說神秘且獨特的結果,例如利用隨機標籤擬合影像的能力,並展示了這些結果可以透過高斯過程來複現。此外,他們還表示,貝葉斯模型一般可以減輕雙下降(double descent),從而能夠提升單調效能且增強靈活性。最後研究者從貝葉斯的視角解釋了預測分佈校準的回火問題。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

機率視角下的泛化。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

近似真實的預測分佈。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

貝葉斯模型平均可以緩解雙重下降。

推薦:本篇論文第一版提交於 2020 年 2 月,這是修改後的第二版。論文已被 ICML 2020 接收。

論文 6:MakeItTalk: Speaker-Aware Talking Head Animation

  • 作者:Yang Zhou, DIngzeyu Li、Jose Echevarria 等

  • 論文連結:https://arxiv.org/pdf/2004.12992v1.pdf


摘要:今天我們來看 Adobe 的一項研究,該研究提出了一種叫做 MakeItTalk 的新模型,不僅能讓真人頭像說話,還可以把卡通、油畫、素描、日漫中的人像動態化

該研究提出了一種新方法,可以基於單張人臉影像和語音生成驚豔的說話狀態頭部動畫。之前的方法往往學習音訊和原始畫素之間的直接對映來建立說話人面部,而該方法將輸入音訊訊號中的內容和說話人資訊分離開來。音訊內容穩健地控制嘴唇及周圍面部區域的運動,說話人資訊則決定人臉表情的細節和說話人的頭部動態。

該方法的另一個重要元件是預測能夠反映說話人動態的人臉特徵點。基於該中間表徵,該方法能夠合成包含完整運動的說話人面部逼真影片。此方法還可使藝術作品、素描、2D 卡通人物、日漫、隨手塗鴉轉化為會說話的動態影片。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

本研究中 MakeItTalk 方法的 Pipeline。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

預測得到的卡通形象和動畫和真實人臉動畫。MakeItTalk 合成的不僅是面部神情,還有不同的頭部姿態。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

與當前 SOTA 方法的效果對比。

推薦:透過對該方法的定量和定性評估,結果表明與之前的 SOTA 方法相比,該方法能夠生成的說話狀態頭部動畫質量更高。

論文 7:Reinforcement Learning with Augmented Data

  • 作者:Michael Laskin、Kimin Lee、Aravind Srinivas 等

  • 論文連結:https://arxiv.org/pdf/2004.14990.pdf


摘要:在本文中,來自加州大學伯克利分校的研究者提出了利用增強資料來進行強化學習(Reinforcement Learning with Augmented Data,簡稱為 RAD),這是一種可以增強任何 RL 演算法的即插即用模組。他們發現,從資料效率、泛化性和牆上時鐘速度三方面來看,隨機修剪、色彩抖動和隨機卷積等資料增強方法在常用基準上能夠使簡單 RL 演算法的效能媲美甚至超越當前 SOTA 方法。

DeepMind 控制套件上,研究者證實就資料效率和效能兩方面而言,RAD 在 15 個環境中均實現了當前 SOTA 效果,並且 RAD 可以顯著提升幾個 OpenAI ProcGen 基準上的測試時泛化性。最後自定義的資料增強模組可以實現較類似 RL 方法更快的牆上時鐘速度。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

Reinforcement Learning with Augmented Data(RAD)架構。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

研究者選擇了多種不同的資料增強方法。

7 Papers & Radios | DeepMind等用AI小鼠探索神經網路;伯克利資料增強RL實現SOTA

RAD 與不同資料增強方法在 3 個 OpenAI ProcGen 環境(BigFish、StarPilot 和 Jumper)中的泛化結果對比。

推薦:DeepMind 控制套件上,RAD 在 15 個環境中均實現了當前 SOTA 效果。

ArXiv Weekly Radiostation

機器之心聯合由楚航、羅若天發起的ArXiv Weekly Radiostation,在 7 Papers 的基礎上,精選本週更多重要論文,包括NLP、CV、ML領域各10篇精選,並提供音訊形式的論文摘要簡介,詳情如下:

10 NLP Papers.mp300:0019:30

本週 10 篇 NLP 精選論文是:

1. Empower Entity Set Expansion via Language Model Probing. (from Yunyi Zhang, Jiaming Shen, Jingbo Shang, Jiawei Han)
2. DomBERT: Domain-oriented Language Model for Aspect-based Sentiment Analysis. (from Hu Xu, Bing Liu, Lei Shu, Philip S. Yu)
3. Stay Hungry, Stay Focused: Generating Informative and Specific Questions in Information-Seeking Conversations. (from Peng Qi, Yuhao Zhang, Christopher D. Manningg)
4. Interpretable Multimodal Routing for Human Multimodal Language. (from Yao-Hung Hubert Tsai, Martin Q. Ma, Muqiao Yang, Ruslan Salakhutdinov, Louis-Philippe Morency)
5. Politeness Transfer: A Tag and Generate Approach. (from Aman Madaan, Amrith Setlur, Tanmay Parekh, Barnabas Poczos, Graham Neubig, Yiming Yang, Ruslan Salakhutdinov, Alan W Black, Shrimai Prabhumoye)
6. Recipes for building an open-domain chatbot. (from Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y-Lan Boureau, Jason Weston)
7. Detecting Domain Polarity-Changes of Words in a Sentiment Lexicon. (from Shuai Wang, Guangyi Lv, Sahisnu Mazumder, Bing Liu)
8. Unnatural Language Processing: Bridging the Gap Between Synthetic and Natural Language Data. (from Alana Marzoev, Samuel Madden, M. Frans Kaashoek, Michael Cafarella, Jacob Andreas)
9. Knowledge Graph Empowered Entity Description Generation. (from Liying Cheng, Yan Zhang, Dekun Wu, Zhanming Jie, Lidong Bing, Wei Lu, Luo Si)
10. Self-Attention with Cross-Lingual Position Representation. (from Liang Ding, Longyue Wang, Dacheng Tao)

10 CV Papers.mp300:0019:30

本週 10 篇 CV 精選論文是:

1. Pyramid Attention Networks for Image Restoration. (from Yiqun Mei, Yuchen Fan, Yulun Zhang, Jiahui Yu, Yuqian Zhou, Ding Liu, Yun Fu, Thomas S. Huang, Honghui Shi)
2. Stitcher: Feedback-driven Data Provider for Object Detection. (from Yukang Chen, Peizhen Zhang, Zeming Li, Yanwei Li, Xiangyu Zhang, Gaofeng Meng, Shiming Xiang, Jian Sun, Jiaya Jia)
3. Leveraging Photometric Consistency over Time for Sparsely Supervised Hand-Object Reconstruction. (from Yana Hasson, Bugra Tekin, Federica Bogo, Ivan Laptev, Marc Pollefeys, Cordelia Schmid)
4. Consistent Video Depth Estimation. (from Xuan Luo, Jia-Bin Huang, Richard Szeliski, Kevin Matzen, Johannes Kopfi)
5. DFUC2020: Analysis Towards Diabetic Foot Ulcer Detection. (from Bill Cassidy, Neil D. Reeves, Pappachan Joseph, David Gillespie, Claire O'Shea, Satyan Rajbhandari, Arun G. Maiya, Eibe Frank, Andrew Boulton, David Armstrong, Bijan Najafi, Justina Wu, Moi Hoon Yap)
6. The 4th AI City Challenge. (from Milind Naphade, Shuo Wang, David Anastasiu, Zheng Tang, Ming-Ching Chang, Xiaodong Yang, Liang Zheng, Anuj Sharma, Rama Chellappa, Pranamesh Chakraborty)
7. Gabriella: An Online System for Real-Time Activity Detection in Untrimmed Surveillance Videos. (from Mamshad Nayeem Rizve, Ugur Demir, Praveen Tirupattur, Aayush Jung Rana, Kevin Duarte, Ishan Dave, Yogesh Singh Rawat, Mubarak Shah)
8. Fashionpedia: Ontology, Segmentation, and an Attribute Localization Dataset. (from Menglin Jia, Mengyun Shi, Mikhail Sirotenko, Yin Cui, Claire Cardie, Bharath Hariharan, Hartwig Adam, Serge Belongie)
9. Multi-Scale Boosted Dehazing Network with Dense Feature Fusion. (from Hang Dong, Jinshan Pan, Lei Xiang, Zhe Hu, Xinyi Zhang, Fei Wang, Ming-Hsuan Yang)
10. Deep Multimodal Neural Architecture Search. (from Zhou Yu, Yuhao Cui, Jun Yu, Meng Wang, Dacheng Tao, Qi Tian)

10 ML Papers.mp300:0019:14

本週 10 篇 ML 精選論文是:


1. Image Augmentation Is All You Need: Regularizing Deep Reinforcement Learning from Pixels. (from Ilya Kostrikov, Denis Yarats, Rob Fergus)
2. Energy-based models for atomic-resolution protein conformations. (from Yilun Du, Joshua Meier, Jerry Ma, Rob Fergus, Alexander Rives)
3. Visual Grounding of Learned Physical Models. (from Yunzhu Li, Toru Lin, Kexin Yi, Daniel Bear, Daniel L. K. Yamins, Jiajun Wu, Joshua B. Tenenbaum, Antonio Torralba)
4. Towards Feature Space Adversarial Attack. (from Qiuling Xu, Guanhong Tao, Siyuan Cheng, Lin Tan, Xiangyu Zhang)
5. Non-Exhaustive, Overlapping Co-Clustering: An Extended Analysis. (from Joyce Jiyoung Whang, Inderjit S. Dhillon)
6. An Explainable Deep Learning-based Prognostic Model for Rotating Machinery. (from Namkyoung Lee, Michael H. Azarian, Michael G. Pecht)
7. Reinforcement Learning with Augmented Data. (from Michael Laskin, Kimin Lee, Adam Stooke, Lerrel Pinto, Pieter Abbeel, Aravind Srinivas)
8. Explainable Unsupervised Change-point Detection via Graph Neural Networks. (from Ruohong Zhang, Yu Hao, Donghan Yu, Wei-Cheng Chang, Guokun Lai, Yiming Yang)
9. Plan-Space State Embeddings for Improved Reinforcement Learning. (from Max Pflueger, Gaurav S. Sukhatme)
10. Privacy in Deep Learning: A Survey. (from Fatemehsadat Mirshghallah, Mohammadkazem Taram, Praneeth Vepakomma, Abhishek Singh, Ramesh Raskar, Hadi Esmaeilzadeh)

相關文章