自然語言處理在過去一年取得了很大進步,但直接關注 NLP 或序列建模的框架還很少。本文介紹了谷歌開源的 Lingvo,它是一種建立在 TensorFlow 上的序列建模框架。該框架重點關注協作實現與共享程式碼庫,能極大提升程式碼複用與研究迭代速度,NLP 的今年就靠你了~
Lingvo 是世界語(Esperanto)中的一個單詞,它表示「語言」的意思。這一命名展示了 Lingvo 框架的根源:它是由 TensorFlow 開發的通用深度學習框架,它重點關注自然語言處理相關的序列建模方法,包括機器翻譯、語音識別和語音合成等。
在谷歌內部,Lingvo 框架非常有吸引力,使用它的研究人員越來越多。目前,有數十篇獲得 SOTA 結果的論文都通過 Lingvo 框架得到了最優的復現,當然開源後將會有越來越多的新實現。從傳統的 RNN 序列模型到目前流行的 Transformer,再到包含變分自編碼器模組的前沿模型,Lingvo 支援的序列建模架構非常多。
為了支援研究社群並鼓勵復現研究論文,谷歌開源了這項框架。他們表示以後谷歌釋出的一些序列建模新研究也會嘗試採用 Lingvo 框架,它的便捷性將提升 NLP 研究的速度。
Lingvo 主要支援大量研究團體在一個共享程式碼庫中從事語音和自然語言處理相關問題的研究。它的設計原則如下:
單個程式碼塊應該精細且模組化,它們會使用相同的介面,同時也容易擴充套件;
實驗應該是共享的、可比較的、可復現的、可理解的和正確的;
效能應該可以高效地擴充套件到生產規模的資料集,或擁有數百個加速器的分散式訓練系統;
當模型從研究轉向產品時應該儘可能共享程式碼。
Lingvo 是在考慮協作研究的基礎上構建的,它主要通過在不同任務之間共享公共層的實現,從而提升程式碼的複用程度。此外,所有層都實現了相同的公共介面,並以相同的方式佈局程式碼結構。這不僅會產生更簡潔和易讀的程式碼,同時其它任務上的改良也可以便捷地應用到我們的任務上。實現這種一致性程式碼確實會有更多的成本,例如更加規範和模板化的程式碼。但是 Lingvo 也在嘗試減少這種成本,以確保更快地迭代研究成果。
協作的另一個方面是共享可復現的結果。Lingvo 為檢查模型超引數配置提供了集中的地址,這不僅可以記錄重要的實驗,同時通過訓練相同的模型,其它研究者可以更輕鬆地復現我們的研究成果。
def Task(cls): p = model.AsrModel.Params() p.name = 'librispeech' # Initialize encoder params. ep = p.encoder # Data consists 240 dimensional frames (80 x 3 frames), which we # re-interpret as individual 80 dimensional frames. See also, # LibrispeechCommonAsrInputParams. ep.input_shape = [None, None, 80, 1] ep.lstm_cell_size = 1024 ep.num_lstm_layers = 4 ep.conv_filter_shapes = [(3, 3, 1, 32), (3, 3, 32, 32)] ep.conv_filter_strides = [(2, 2), (2, 2)] ep.cnn_tpl.params_init = py_utils.WeightInit.Gaussian(0.001) # Disable conv LSTM layers. ep.num_conv_lstm_layers = 0 # Initialize decoder params. dp = p.decoder dp.rnn_cell_dim = 1024 dp.rnn_layers = 2 dp.source_dim = 2048 # Use functional while based unrolling. dp.use_while_loop_based_unrolling = False tp = p.train tp.learning_rate = 2.5e-4 tp.lr_schedule = lr_schedule.ContinuousLearningRateSchedule.Params().Set( start_step=50000, half_life_steps=100000, min=0.01) # Setting p.eval.samples_per_summary to a large value ensures that dev, # devother, test, testother are evaluated completely (since num_samples for # each of these sets is less than 5000), while train summaries will be # computed on 5000 examples. p.eval.samples_per_summary = 5000 p.eval.decoder_samples_per_summary = 0 # Use variational weight noise to prevent overfitting. p.vn.global_vn = True p.train.vn_std = 0.075 p.train.vn_start_step = 20000 return p複製程式碼
雖然 Lingvo 一開始重點關注 NLP,但它本質上非常靈活。用於影象分割和點雲分類任務的模型已經使用該框架成功實現。它還支援知識蒸餾、GAN 和多工模型。同時,該框架沒有因為便捷而犧牲速度,它具有優化的輸入流程和快速的分散式訓練。最後,Lingvo 還著眼於生產化,甚至有一條明確的路徑來將模型移植到移動端。
論文:Lingvo: a Modular and Scalable Framework for Sequence-to-Sequence Modeling
摘要:Lingvo 是一個能夠為協作式深度學習研究提供完整解決方案的 Tensorflow 框架,尤其關注序列到序列模型。Lingvo 模型由模組化構件組成,這些構件靈活且易於擴充套件,實驗配置集中且可定製。分散式訓練和量化推理直接在框架內得到支援,框架內包含大量 utilities、輔助函式和最新研究思想的現有實現。過去兩年裡,Lingvo 已被數十個研究人員在 20 篇論文中協作使用。本文作為對框架各個部分的介紹,概述了 Lingvo 的基本設計,同時還提供了展示框架能力的高階功能示例。