TensorFlow 下構建高效能神經網路模型的最佳實踐

GitChat的部落格發表於2018-04-12

隨著神經網路演算法在影像、語音等領域都大幅度超越傳統演算法,但在應用到實際專案中卻面臨兩個問題:計算量巨大及模型體積過大,不利於移動端和嵌入式的場景;模型記憶體佔用過大,導致功耗和電量消耗過高。因此,如何對神經網路模型進行優化,使盡可能不損失精度的情況下,能減少模型的體積,並且計算量也降低,就是我們將深度學習在更廣泛地場景下應用時要解決的問題。本場 Chat 主要包括:

  1. 加速神經網路模型計算的主要方向
  2. 目前模型壓縮的 4 類主流方法
  3. 模型剪枝的過程、特點,及在經典神經網路模型中的剪枝結果
  4. 模型量化的過程、特點及基本原理
  5. TensorFlow 下的模型壓縮工具:量化例項、實現及表示
  6. 實戰在經典神經網路 ResNet50 上的模型壓縮實驗及收益提升

閱讀全文: http://gitbook.cn/gitchat/activity/59fedfd14a44631ce856b3e9

一場場看太麻煩?成為 GitChat 會員,暢享 1000+ 場 Chat !點選檢視

相關文章