邁入開源第三年,深度學習平臺PaddlePaddle又發重磅升級。
4月23日,由深度學習技術及應用國家工程實驗室與百度聯合主辦的首屆WAVE SUMMIT 2019深度學習開發者峰會上,PaddlePaddle首秀全景圖,並連拋11項重磅釋出!
開發環節,全新發布工業級NLP開源工具集PaddleNLP,以及業界首個影片識別工具集;訓練環節,展現大規模分散式訓練、工業級資料處理兩大特性;部署環節,首發預測服務Paddle Serving和用於模型壓縮的PaddleSlim;工具方面,首發預訓練模型管理工具PaddleHub、深度強化學習工具PARL重要升級、自動化網路結構設計AutoDL Design正式開源;服務方面,釋出了價值一億人民幣的算力支援計劃以及企業深度學習實戰營。
深度學習推動人工智慧進入工業大生產階段,深度學習框架是智慧時代的作業系統。從開發、訓練、部署、工具到服務,PaddlePaddle展現了歷經產業實踐打磨的“趁手利器”所擁有的全面、穩定與高效。
一、 開發:新增NLP、影片兩大模型工具集
在模型庫方面,PaddlePaddle已開源 60 多個經過真實業務場景驗證的官方模型,涵蓋視覺、自然語言處理、推薦等 AI 核心技術領域,成為官方支援模型最多的深度學習平臺。而此次,PaddlePaddle再次全新發布工業級NLP開源工具與預訓練模型集PaddleNLP,以及業界首個影片識別工具集。
PaddleNLP是基於PaddlePaddle 打造的面向工業應用的中文NLP工具集,覆蓋全面的中文處理任務,工業使用效果突出。PaddleNLP提供全面豐富的中文處理任務,並擁有當前業內效果最好的中文語義表示模型ERNIE和基於使用者大資料訓練的應用任務模型。基於PaddlePaddle深度學習框架構建的基礎NLP演算法模型和NLP應用任務的靈活組合,同型別演算法模型可靈活插拔,真正高效易用。
此外,PaddlePaddle還發布了業界首個影片識別工具集,旨在為開發者提供解決影片理解、影片編輯、影片生成等一系列任務的便捷、高效的模型。工具集提供了適合影片任務的通用骨架程式碼,覆蓋影片識別方向的7大主流領先模型,包括StNet、Attention LSTM 、Attention Cluster三大幫助百度視覺團隊奪得國際競賽冠軍的自研領先模型。目前,該領先的影片理解技術已在百度多項核心業務中使用,如百度 Feed 流,百度搜尋,百度雲 VCA 系統等,影片標籤集Top5準確率達到96%,百度 Feed 流短影片分類全免人審。
二、 訓練:業界最強的超大規模並行深度學習能力
訓練環節,超大規模深度學習並行技術一直是PaddlePaddle的優勢之一。此次大規模分散式訓練主要從三方面實現了升級,首先是對多機多卡訓練的的全面支援,實現了良好的可擴充套件性。同時釋出了針對網路條件不好的情況下的稀疏通訊技術,大幅降低了頻寬對訓練速度的影響。
其次,針對超大規模稀疏引數的挑戰,設計並開放了大規模稀疏引數伺服器,開發者可輕鬆下載相關映象使用。基於真實的推薦場景的資料驗證,PaddlePaddle 在 100 節點*10執行緒/節點的情況下,根據batch size的不同吞吐量可達 60 萬~ 140 萬 /s,每小時可處理20 ~ 50億資料,且達到batch size為 512 的情況下90%的加速比。該系統已應用於百度feed流以及鳳巢商業推廣系統中,可有效地解決超大規模推薦系統、超大規模資料、自膨脹的海量特徵及高頻率模型迭代的問題,擁有超大吞吐量及高效率。
第三,大規模分散式訓練支援在各種容器上高速執行,同時支援在K8S生態下使用PaddlePaddle進行訓練。
在這種大規模資料場景下,資料的吞吐非常關鍵,對於資料做處理往往是一大痛點,對此,PaddlePaddle研發了資料處理元件方便開發者使用。最佳化分散式IO,增加遠端檔案系統流式讀取能力。GPU多機多卡同步訓練透過增加稀疏通訊能力提升頻寬不敏感訓練能力,在低配網路頻寬網路環境下,例如10G網路下,同步訓練可提速10倍。
三、部署:首發預測服務Paddle Serving、用於模型壓縮的PaddleSlim
開發和訓練後,將模型部署到各種應用場景下是非常關鍵的一個步驟。部署環節需要高速的推理引擎,在此基礎上,為了部署在更多的硬體上往往需要做模型壓縮,在真正使用時,還需要軟硬一體能力的支援。
(PaddlePaddle端到端全流程部署方案)
目前,PaddlePaddle提供完整的端到端的全流程部署方案。基於多硬體的支援,PaddlePaddle提供效能全面領先的底層加速庫和推理引擎。此次大會,PaddlePaddle全新發布了預測服務Paddle Serving,以及用於模型壓縮的PaddleSlim。
Paddle Serving可與核心框架的模型訓練環節無縫銜接,提供深度學習預測雲服務,內建模型,可批次預測。Paddle Serving目前已在百度的很多產品線使用。
而PaddleSlim實現基於PaddlePaddle的模型壓縮,能夠在精度損失較小的情況下高效進行模型體積壓縮,覆蓋目前主流的網路剪枝、量化、蒸餾三種壓縮策略。引數集中管理,兩行python程式碼即可呼叫自動化模型壓縮。針對體積已經很小的MobileNet模型,它仍能在模型效果不損失的前提下實現70%以上的體積壓縮。
四、工具:開源AutoDL Design、升級PARL、首發PaddleHub
靈活、高效、易用是PaddlePaddle大受歡迎的重要原因。在多項全新發布及重磅升級中,工具元件方面顯得尤為突出。此次,PaddlePaddle不僅重磅開源AutoDL Design、升級深度強化學習框架PARL,並首次提出併發布預訓練模型管理工具PaddleHub。
傳統的神經網路的結構設計是由人根據經驗設計,並不斷的進行調參訓練獲得最優結果,這個過程較為複雜和費時費力。AutoDL Design自動化網路結構設計是用深度學習設計深度學習,理想狀態下,只需要使用者提供一份資料集,整個系統就可以根據資料集自身,不斷嘗試不同型別的網路結構和連線方式,訓練若干個神經網路模型,逐步進行自動化反覆迭代和嘗試,產出模型。本次重磅開源了基於PaddlePaddle實現的AutoDL Design原始碼, 以及在CIFAR-10資料集上訓練出來的一共6個模型,這6個模型進行融合,可獲得超過98%的準確率。
PARL是一款基於百度PaddlePaddle打造的深度強化學習工具,繼1.0版本開源了NeurIPS 2018假肢挑戰賽冠軍訓練程式碼以及主流強化學習模型後,本次升級聚焦並行,透過一個簡單的修飾符即可實現並行化。資料預處理以及simulator模擬等計算密集型的任務經過這個修飾符之後,會自動部署到使用者指定的計算資源上執行,不再佔用主執行緒的計算資源。以透過PARL實現的IMPALA演算法的評估結果為例,在雅達利這個經典評測環境中 ,Pong 遊戲最快可在7分鐘內達到20分,breakout遊戲在25分鐘達到400分。
PaddleHub是一款簡明易用的預訓練模型管理框架,提供包括預訓練模型管理、命令列一鍵式使用和遷移學習三大功能,旨在幫助使用者更高效地管理模型並開展遷移學習的工作。
模型管理上透過hub命令列可完成基於PaddlePaddle的預訓練模型下載、搜尋、版本管理等功能。無需程式碼,透過命令列即可直接使用預訓練模型進行預測,快速調研訓練模型效果。遷移學習方面,提供了基於預訓練模型的Finetune API。活動現場,馬豔軍演示了低至10行程式碼即完成遷移學習的驚豔Demo。
五、服務:算力支援計劃,價值一億人民幣!
算力是深度學習發展不可或缺的重要“能源”。為此PaddlePaddle宣佈了一個振奮全場的“土豪”計劃——百度一站式開發平臺AI Studio重磅推出價值一億人民幣的算力支援計劃,為開發者破除算力桎梏。
據悉,免費算力主要以兩種模式提供,第一種是一人一卡模式,使用邀請碼即可獲贈算力時長。另外一種是遠端叢集模式,PaddlePaddle提供高效能叢集,開發者只需登入AI Studio,便可以免費使用。
百度對於深度學習開發者的支援不僅於此。面向高校,推出深度學習師資培訓班、協同育人專項基金、AI Studio教育版。面向開發者,提供免費線上課程、免費算力支援、並舉辦不間斷的賽事互動。面向企業,推出深度學習架構師培養計劃黃埔學院,此次進一步推出了可覆蓋1000家企業的企業深度學習實戰營——AI快車道。
更精進的基礎框架設計、更豐富的演算法模型、更強大的系統效能和穩定性、更完備的異構硬體支援、更全面貼心的開發者生態……開源三年,PaddlePaddle始終在實踐中不斷鍛造錘鍊,為中國開發者打造趁手“神兵”。
風雲驟起的智慧時代何以亮劍?或許PaddlePaddle可以成為你的選擇。