從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

機器之心發表於2017-12-22
2017 年只剩不到十天,隨著 NIPS 等重要會議的結束,是時候對這一年深度學習領域的重要研究與進展進行總結了。來自機器學習創業公司的 Eduard Tyantov 最近就為我們整理了這樣一份列表。想知道哪些深度學習技術即將影響我們的未來嗎?本文將給你作出解答。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

1. 文字

1.1 谷歌神經機器翻譯

去年,谷歌宣佈上線 Google Translate 的新模型,並詳細介紹了所使用的網路架構——迴圈神經網路(RNN)。

關鍵結果:與人類翻譯準確率的差距縮小了 55-85%(研究者使用 6 個語言對的評估結果)。但是該模型如果沒有谷歌的大型資料集,則很難復現這麼優秀的結果。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

參考閱讀:

重磅 | 谷歌翻譯整合神經網路:機器翻譯實現顛覆性突破(附論文)

專訪 | 谷歌神經網路翻譯系統釋出後,我們和 Google Brain 的工程師聊了聊

1.2 談判會達成嗎?

你或許聽說過「Facebook 因為聊天機器人失控、創造自己語言而關閉聊天機器人」的訊息。這個機器人是用來進行談判的,其目的是與另一個智慧體進行文字談判,然後達成協議:如何把物品(書籍、帽子等)分成兩份。談判中每個智慧體都有自己的目標,而對方並不知道。談判不可能出現未達成協議的情況。

研究者在訓練過程中收集人類談判的資料集,訓練監督式迴圈網路。然後,讓用強化學習訓練出的智慧體自己與自己交流,直到獲得與人類相似的談判模式。

該機器人學會了一種真正的談判策略——對某個交易的特定方面假裝產生興趣,然後再放棄它們,以達到真實目標。這是第一次嘗試此類互動機器人,而且也比較成功。

當然,稱該機器人創造了一種新語言的說法過於誇張了。和同一個智慧體進行談判的訓練過程中,研究者無法限制文字與人類語言的相似度,然後演算法修改了互動語言。這是很尋常的事。

參考閱讀:

業界 | 讓人工智慧學會談判,Facebook 開源端到端強化學習模型

2. 語音

2.1 WaveNet:一種針對原始語音的生成模型

DeepMind 的研究者基於先前的影像生成方法構建了一種自迴歸全卷積模型 WaveNet。該模型是完全機率的和自迴歸的(fully probabilistic and autoregressive),其每一個音訊樣本的預測分佈的前提是所有先前的樣本;不過研究表明它可以有效地在每秒音訊帶有數萬個樣本的資料上進行訓練。當被應用於文字轉語音時,它可以得到當前最佳的表現,人類聽眾評價它在英語和漢語上比當前最好的引數(parametric)和拼接(concatenative)系統所生成的音訊聽起來都顯著更為自然。

單個 WaveNet 就可以以同等的保真度捕獲許多不同說話者的特點,而且可以透過調節說話者身份來在它們之間切換。當訓練該模型對音樂建模時,我們發現它可以生成全新的、而且往往具有高度真實感的音樂片段。該研究還證明其可以被用作判別模型,可以為音速識別(phoneme recognition)返回很有希望的結果。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

該網路以端到端的方式進行訓練:文字作為輸入,音訊作為輸出。研究者得到了非常好的結果,機器合成語音水平與人類差距縮小 50%。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

該網路的主要缺陷是低生產力,因為它使用自迴歸,聲音按序列生成,需要 1-2 分鐘的時間才能生成一秒音訊。

參考閱讀:

DeepMind WaveNet,將機器合成語音水平與人類差距縮小 50%

2.2 唇讀

唇讀(lipreading)是指根據說話人的嘴唇運動解碼出文字的任務。傳統的方法是將該問題分成兩步解決:設計或學習視覺特徵、以及預測。最近的深度唇讀方法是可以端到端訓練的(Wand et al., 2016; Chung & Zisserman, 2016a)。目前唇讀的準確度已經超過了人類。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

Google DeepMind 與牛津大學合作的一篇論文《Lip Reading Sentences in the Wild》介紹了他們的模型經過電視資料集的訓練後,效能超越 BBC 的專業唇讀者。

該資料集包含 10 萬個音訊、影片語句。音訊模型:LSTM,影片模型:CNN + LSTM。這兩個狀態向量被饋送至最後的 LSTM,然後生成結果(字元)。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

訓練過程中使用不同型別的輸入資料:音訊、影片、音訊+影片。即,這是一個「多渠道」模型。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

參考閱讀:

如何透過機器學習解讀唇語?DeepMind 要透過 LipNet 幫助機器「看」懂別人說的話


2.3 人工合成奧巴馬:嘴唇動作和音訊的同步

華盛頓大學進行了一項研究,生成美國前總統奧巴馬的嘴唇動作。選擇奧巴馬的原因在於網路上有他大量的影片(17 小時高畫質影片)。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

研究者使用了一些技巧來改善該研究的效果。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

3. 計算機視覺


3.1. OCR:谷歌地圖與街景

谷歌大腦團隊在其文章中報導瞭如何把新的 OCR(光學字元識別)引擎引入其地圖中,進而可以識別街頭的標誌與商標。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

在該技術的發展過程中,谷歌還給出了新的 FSNS(French Street Name Signs),它包含了大量的複雜案例。

為了識別標誌,網路最多使用 4 張圖片。特徵透過 CNN 提取,在空間注意力(考慮畫素座標)的幫助下縮放,最後結果被饋送至 LSTM。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

相同方法被用於識別廣告牌上店鋪名稱的任務上(存在大量噪音資料,網路本身必須關注正確的位置)。這一演算法被應用到 800 億張圖片之上。

3.2 視覺推理

視覺推理指的是讓神經網路回答根據照片提出的問題。例如,「照片中有和黃色的金屬圓柱的尺寸相同的橡膠物體嗎?」這樣的問題對於機器是很困難的,直到最近,這類問題的回答準確率才達到了 68.5%。

為了更深入地探索視覺推理的思想,並測試這種能力能否輕鬆加入目前已有的系統,DeepMind 的研究者們開發了一種簡單、即插即用的 RN 模組,它可以載入到目前已有的神經網路架構中。具備 RN 模組的神經網路具有處理非結構化輸入的能力(如一張圖片或一組語句),同時推理出事物其後隱藏的關係。

使用 RN 的網路可以處理桌子上的各種形狀(球體、立方體等)物體組成的場景。為了理解這些物體之間的關係(如球體的體積大於立方體),神經網路必須從影像中解析非結構化的畫素流,找出哪些資料代表物體。在訓練時,沒有人明確告訴網路哪些是真正的物體,它必須自己試圖理解,並將這些物體識別為不同類別(如球體和立方體),隨後透過 RN 模組對它們進行比較並建立「關係」(如球體大於立方體)。這些關係不是硬編碼的,而是必須由 RN 學習——這一模組會比較所有可能性。最後,系統將所有這些關係相加,以產生場景中對所有形狀對的輸出。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

目前的機器學習系統在 CLEVR 上標準問題架構上的回答成功率為 68.5%,而人類的準確率為 92.5%。但是使用了 RN 增強的神經網路,DeepMind 展示了超越人類表現的 95.5% 的準確率。RN 增強網路在 20 個 bAbI 任務中的 18 個上得分均超過 95%,與現有的最先進的模型相當。值得注意的是,具有 RN 模組的模型在某些任務上的得分具有優勢(如歸納類問題),而已有模型則表現不佳。

下圖為視覺問答的架構。問題在經過 LSTM 處理後產生一個問題嵌入(question embedding),而影像被一個 CNN 處理後產生一組可用於 RN 的物體。物體(圖中用黃色、紅色和藍色表示)是在卷積處理後的影像上使用特徵圖向量構建的。該 RN 網路會根據問題嵌入來考慮所有物體對之間的關係,然後會整合所有這些關係來回答問題。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

參考閱讀:

關係推理水平超越人類:DeepMind 展示全新神經網路推理預測技術

3.3 Pix2Code

哥本哈根的一家初創公司 UIzard Technologies 訓練了一個神經網路,能夠把圖形使用者介面的截圖轉譯成程式碼行,成功為開發者們分擔了部分網站設計流程。令人驚歎的是,同一個模型能跨平臺工作,包括 iOS、Android 和 Web 介面,從目前的研發水平來看,該演算法的準確率達到了 77%。

為了實現這一點,研究者們需要分三個步驟來訓練,首先,透過計算機視覺來理解 GUI 影像和裡面的元素(按鈕、條框等)。接下來模型需要理解計算機程式碼,並且能生成在句法上和語義上都正確的樣本。最後的挑戰是把之前的兩步聯絡起來,需要它用推測場景來生成描述文字。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

雖然該工作展示了這樣一種能自動生成 GUI 程式碼的潛力系統,但該研究只是開發了這種潛力的皮毛。目前的 Pix2Code 模型由相對較少的引數組成,並且只能在相對較小的資料集上訓練。而構建更復雜的模型,並在更大的資料集上訓練會顯著地提升程式碼生成的質量。並且採用各種正則化方法和實現注意力機制(attention mechanism [1])也能進一步提升生成程式碼的質量。同時該模型採用的獨熱編碼(one-hot encoding)並不會提供任何符號間關係的資訊,而採用 word2vec [12] 那樣的詞嵌入模型可能會有所好轉。因此將圖片轉換為 UI 程式碼的工作仍處於研究之中,目前尚未投入實際使用。

專案地址:https://github.com/tonybeltramelli/pix2code

參考閱讀:

深度學習助力前端開發:自動生成 GUI 圖程式碼(附試用地址)

3.4 SketchRNN:教機器畫畫

你可能看過谷歌的 Quick, Draw! 資料集,其目標是 20 秒內繪製不同物體的簡筆畫。谷歌收集該資料集的目的是教神經網路畫畫。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

研究者使用 RNN 訓練序列到序列的變分自編碼器(VAE)作為編解碼機制。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

最終,該模型獲取表示原始影像的隱向量(latent vector)。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

解碼器可從該向量中提取圖畫,你可以改變它,生成新的簡筆畫。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

甚至使用向量算術來繪製貓豬(catpig):

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

參考閱讀:

谷歌釋出 Quick Draw 塗鴉資料集:5000 萬張向量圖,345 個類別

3.5 GAN

GAN 是深度學習領域裡的一個熱門話題。目前這種方法大多用於處理影像,所以本文也主要介紹這一方面。GAN 的全稱為生成對抗網路,是 2014 年由 Ian Goodfellow 及其蒙特利爾大學的同事們率先提出的。這是一種學習資料的基本分佈的全新方法,讓生成出的人工物件可以和真實物件之間達到驚人的相似度。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

GAN 背後的思想非常直觀:生成器和鑑別器兩個網路彼此博弈。生成器的目標是生成一個物件(比如人的照片),並使其看起來和真的一樣。而鑑別器的目標就是找到生成出的結果和真實影像之間的差異。鑑別器通常會從資料集中給出影像用於對比。

由於很難找出兩個網路之間的平衡點,訓練通常難以連續進行。大多數情況下鑑別器會獲勝,訓練陷入停滯。儘管如此,由於鑑別器的設計可以幫助我們從損失函式設定這樣的複雜問題中解決出來(例如:提升圖片質量),所以 GAN 獲得了眾多研究者的青睞。

典型的 GAN 訓練結果——臥室和人臉。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

在此之前,我們通常會考慮使用自編碼器(Sketch-RNN),讓其將原始資料編碼成隱藏表示。這和 GAN 中生成器所做的事情一樣。

你可以在這個專案中(http://carpedm20.github.io/faces/)找到使用向量生成圖片的方法。你可以自行嘗試調整向量,看看生成的人臉會如何變化。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

這種演算法在隱空間上同樣適用:「一個戴眼鏡的男人」減去「男人」加上「女人」就等於「一個戴眼鏡的女人」。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

參考閱讀:

深入淺出:GAN 原理與應用入門介紹

3.6 使用 GAN 改變面部年齡

如果在訓練過程中獲得一個可控制的隱向量引數,我們就可以在推斷階段修改這個向量以控制影像的生成屬性,這種方法被稱為條件 GAN。

論文 Face Aging With Conditional Generative Adversarial Networks 的作者使用在 IMDB 資料集上預訓練模型而獲得年齡的預測方法,然後研究者基於條件 GAN 修改生成影像的面部年齡。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

參考閱讀:

解讀 | 藝術家如何藉助神經網路進行創作?

3.7 專業攝影作品

谷歌已經開發了另一個非常有意思的 GAN 應用,即攝影作品的選擇和改進。開發者在專業攝影作品資料集上訓練 GAN,其中生成器試圖改進照片的表現力(如更好的拍攝引數和減少對濾鏡的依賴等),判別器用於區分「改進」的照片和真實的作品。

訓練後的演算法會透過 Google Street View 搜尋最佳構圖,獲得了一些專業級的和半專業級的作品評分。

參考閱讀:

谷歌「虛擬攝影師」:利用深度學習生成專業級攝影作品

3.8 pix2pix

伯克利人工智慧研究室(BAIR)在 2016 年非常引人注目的研究 Image-to-Image Translation with Conditional Adversarial Networks 中,研究人員解決了影像到影像的生成問題。例如需要使用衛星影像建立地圖,或使用素描建立逼真的目標紋理等。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

這裡有另一個非常成功的條件 GAN 應用案例。在該情況下,條件將變為整張影像。此外,UNet 在影像分割中十分受歡迎,經常用於生成器的體系結構,且該論文使用了新型 PatchGAN 分類器作為處理模糊影像的判別器。

該論文的作者還發布了他們網路的線上演示:https://affinelayer.com/pixsrv/

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

原始碼:https://github.com/phillipi/pix2pix

參考閱讀:

教程 | 你來手繪塗鴉,人工智慧生成「貓片」:edges2cats 影像轉換詳解


3.9 CycleGAN

為了應用 Pix2Pix,我們需要包含了不同領域影像對的資料集。收集這樣的資料集並不困難,但對於更復雜一點的轉換目標或風格化目標等操作,原則上是找不到這樣的目標對。

因此,Pix2Pix 的作者為了解決這樣的問題提出了在不同影像領域之間轉換而不需要特定影像對的 CycleGAN 模型,原論文為《Unpaired Image-to-Image Translation》。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

該論文的主要想法是訓練兩對生成器-判別器模型以將影像從一個領域轉換為另一個領域,在這過程中我們要求迴圈一致性。即在序列地應用生成器後,我們應該得到一個相似於原始 L1 損失的影像。因此我們需要一個迴圈損失函式(cyclic loss),它能確保生成器不會將一個領域的影像轉換到另一個和原始影像完全不相關的領域。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

這個方法允許我們學習將馬對映到斑馬。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

這樣的轉換通常是不穩定的,並且經常建立一些不成功的案例:

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

原始碼:https://github.com/junyanz/CycleGAN

參考閱讀:

學界 | 讓莫奈畫作變成照片:伯克利影像到影像翻譯新研究

3.10 腫瘤分子學的進展

機器學習正在幫助改善醫療的手段,它除了在超聲波識別、MPI 和診斷等方面的應用,還能尋找對抗癌症的性藥物。

簡單來說,在對抗自編碼器(AAE)的幫助下,我們可以學習藥物分子的潛在表徵,並用來搜尋新的藥物結構。該項研究中,研究者發現了 69 個分子,且有一半的分子可用來治療癌症和其它一些比較嚴重的疾病。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

參考閱讀:

深入淺出:GAN 原理與應用入門介紹

3.11 對抗性攻擊

對抗性樣本這一領域也有非常大的活力,研究者希望找到這種令模型不穩定的因素而提升識別效能。例如在 ImageNet 中,訓練的模型在識別加了一些噪點的樣本會完全識別錯誤,這樣加了噪點的影像可能在我們人眼看來是沒有問題的。這一問題展現在下圖中,熊貓的影像加了一點噪聲就會被錯誤識別為長臂猿。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

Goodfellow et al. (2014b) 表明,出現這些對抗樣本的主要原因之一是模型過度線性化。神經網路主要是基於線性模組而構建的,因此它們實現的整體函式被證明是高度線性的。雖然這些線性函式很容易最佳化,但如果一個線性函式具有許多輸入,那麼它的值可以非常迅速地改變。如果我們用 ϵ 改變每個輸入,那麼權重為 w 的線性函式改變可以達到 ϵ∥w∥_1,如果 w 的維度較高,那麼這會是一個非常大的數值。對抗訓練透過鼓勵網路在訓練資料附近的區域性區域恆定來限制這一高度敏感的區域性線性行為。這可以被看作是一種明確地向監督神經網路引入區域性恆定先驗的方法。

下面一個例子表示特殊的眼鏡可以欺騙人臉識別系統,所以在訓練特定的模型時,我們需要考慮這種對抗性攻擊並使用對抗性樣本提高模型的魯棒性。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

這種使用符號的方法也不能被正確地識別。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

參考閱讀:

學界 | OpenAI 探討人工智慧安全:用對抗樣本攻擊機器學習

4 強化學習

強化學習(RL)或使用了強化機制的學習也是機器學習中最有趣和發展活躍的方法之一。

該方法的本質是在一個根據經驗給予獎勵(正如人類的學習方式)的環境中學習智慧體的成功行為。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

RL 在遊戲、機器人和系統控制(例如,交通)中被廣泛應用。

當然,每個人都已經聽說了 AlphaGo 在遊戲中擊敗過多個頂尖專業選手。研究者使用 RL 訓練 AlphaGo 的過程是:讓機器透過自我對弈提升決策能力。

4.1 結合非受控輔助任務的強化訓練

去年,DeepMind 透過使用 DQN 玩電子遊戲取得了超越人類的表現。最近,人們已經開發出了能讓機器玩更加複雜的遊戲(如 Doom)的演算法。

大多數研究關注於學習加速,因為學習智慧體與環境互動的經驗需要在現代 GPU 上執行很長時間的訓練。

DeepMind 的部落格(https://deepmind.com/blog/reinforcement-learning-unsupervised-auxiliary-tasks/)中報告了引入附加損失(輔助任務)的辦法,例如預測幀變化(畫素控制)使智慧體更充分地理解動作的後果,可以顯著加快學習過程。

參考閱讀:

突破 | DeepMind 為強化學習引入無監督輔助任務,人工智慧的 Atari 遊戲水平達到人類的 9 倍從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

4.2 學習機器人

OpenAI 對在虛擬環境中訓練智慧體進行了積極的研究,相比在現實世界中進行實驗要安全得多。

在其中一個研究中(https://blog.openai.com/robots-that-learn/),他們證明了一次性學習(one-shot learning)是可能實現的:在 VR 中的一個人展示如何執行任務,並且演算法只需要一次展示就能學會然後在實際條件下將其重現。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

如果只有人類有這個能力就好了。:)

參考閱讀:

學界 | OpenAI 推出機器人新系統:機器可透過 VR 演示自主學習新任務

4.3 學習人類的偏好

這是 OpenAI(https://blog.openai.com/deep-reinforcement-learning-from-human-preferences/)和 DeepMind 都曾研究過的課題。基本目標是智慧體有一個任務,演算法為人類提供兩個可能的解決方案,並指出那個更好。該過程需要重複迭代,並且演算法接收來自學習如何解決問題的人類的 900 位元大小的反饋(二進位制標記)。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

一如既往,人類必須謹慎判斷,思考他教給機器究竟是什麼。例如,評估器得出演算法確實想要拿到某個物體,但實際上,人類只是想進行一次模擬實驗。

參考閱讀:

OpenAI 聯合 DeepMind 釋出全新研究:根據人類反饋進行強化學習

4.4 在複雜環境中的運動

這是 DeepMind 的另一項研究(https://deepmind.com/blog/producing-flexible-behaviours-simulated-environments/)。為了教會機器人執行復雜的行為(行走、跳躍,等),甚至達到類似人體的動作,你需要非常重視損失函式的選擇,以獲得想要的行為。然而,讓演算法自身透過簡單的獎勵機制學習複雜的行為或許會有更好的效果。

為了達到這個目標,研究者透過構建一個包含障礙物的複雜環境教智慧體(人體模擬器)執行復雜的動作,結合簡單的獎勵機制提高動作質量。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

可以透過影片檢視研究取得的令人印象深刻的結果。

最後,我給出 OpenAI 近日釋出的應用強化學習的演算法的連結(https://github.com/openai/baselines)。這個解決方案比標準的 DQN 方法更好。

參考閱讀:學界 | DeepMind論文三連發:如何在模擬環境中生成靈活行為

5 其它

5.1 資料中心冷卻系統

在 2017 年 7 月,谷歌報告稱他們利用 DeepMind 的機器學習研究成果降低了資料中心的能耗。

基於來自資料中心的幾千個感測器的資訊,谷歌開發者訓練一個神經網路整合預測能量利用效率(PUE)以及更高效的資料中心管理方法。這是機器學習中非常令人印象深刻和重要的實際應用案例。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

5.2 通用模型

如你所知,已訓練模型的任務遷移效能很差,因為每個模型都是為特定的任務而設計的。谷歌大腦的一篇論文(https://arxiv.org/abs/1706.05137)在通用模型的研究上跨出了一小步。

研究者訓練了一個模型,可以執行 8 個不同領域(文字、語音和影像)的任務。例如,不同語言的翻譯、文字解析,以及影像、語音識別。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

為了達到這個目的,他們使用多種不同的模組構建了一個複雜的網路架構以處理不同的輸入資料並生成結果。編碼器/解碼器模組包含三種型別:卷積、注意和 MoE(https://arxiv.org/abs/1701.06538)。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

他們幾乎得到了完美的模型(作者並沒有細調超引數)。

模型中存在不同領域知識的遷移,即,相比使用大量資料訓練的任務(無遷移),該模型能獲得幾乎相同的效能。並且這個模型在小資料任務上表現得更好(例如,文字解析)。

不同任務所需的模組之間並不會互相干擾,有時甚至能互相輔助,例如,MoE 可以輔助 ImageNet 影像識別任務。

模型的 GitHub 地址:https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/multimodel.py

參考閱讀:

一個模型庫學習所有:谷歌開源模組化深度學習系統 Tensor2Tensor

5.3. 一小時訓練 ImageNet

Facebook 在其博文中告訴我們其工程師能夠用 1 小時的時間透過 Imagenet 教會 ResNet-50 模型,不過其實現需要 256 塊 GPU (Tesla P100)。

他們透過 Gloo 和 Caffe2 實現分散式學習。為了更有效,採用大批次的學習策略很有必要:梯度平均、特定學習率等。

結果,當從 8 塊 GPU 擴充套件到 256 塊時,效率可高達 90%。現在,Facebook 可以更快地進行實驗。

參考閱讀:

Facebook「1小時訓練ImageNet」論文與MXNet團隊發生爭議,相關研究介紹

6. 新聞

6.1. 自動駕駛

自動駕駛領域正密集地發展,測試也在積極地開展。從最近事件中我們注意到英特爾收購 MobilEye,Uber 從谷歌剽竊自動駕駛技術的醜聞,以及首個自動駕駛死亡案例等等。

這裡我提醒一件事:谷歌 Waymo 推出了 beta 版。谷歌是該領域的先驅者,可以假定他們的技術很好,因為其自動駕駛汽車裡程已超過 300 萬英里。

更近的事件則有自動駕駛汽車已在美國所有州允許上路測試。

6.2. 醫療

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

就像我說的,現代機器學習正開始應用於醫療。比如,谷歌與某醫療中心展開合作提升診斷。DeepMind 甚至還為此成立了一個獨立部門。

在今年的 Data Science Bowl 上,有一個獎金高達 100 萬美元的競賽,根據標註影像預測一年之中的肺癌情況。

6.3. 投資

正如之前的大資料,機器學習當下也湧入了大量資本。中國在 AI 領域的投資高達 1500 億美元,從而成為行業領導者之一。

相比之下,百度研究院擁有 1300 名員工,而 Facebook FAIR 則只有 80 名。在今年閉幕的 KDD 2017 上,阿里巴巴介紹了其引數伺服器鯤鵬,它帶有萬億個引數,並使得執行 1000 億個樣本成為常規任務。

從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀

人工智慧仍處於起步階段,入門學習機器學習永遠不嫌晚。不管怎樣,所有開發者會慢慢用起機器學習,這項技術會成為程式設計師的必備技能之一,就像現在每個人都會使用資料庫一樣。  

原文連結:https://blog.statsbot.co/deep-learning-achievements-4c563e034257

相關文章