谷歌釋出輕量級視覺架構MobileNetV2,速度快準確率高

量子位發表於2018-04-04
林鱗 編譯自 Google Research Blog
量子位 出品 | 公眾號 QbitAI

深度學習在移動端部署的挑戰仍在。

雖然深度學習在影像分類、檢測等任務上頗具優勢,但提升模型精度對能耗和儲存空間的要求很高,移動裝置通常難以達到要求。

別怕。昨天,谷歌釋出了新一代移動架構MobileNetV2。

這是一種為移動裝置設計的通用計算機視覺神經網路,支援影像分類和檢測等任務,結果比上一代模型有顯著提升。在個人移動裝置上執行深度網路能時能提升體驗,讓使用者能在任何時間和地點進行訪問,在安全、隱私和能耗上還有額外優勢。

新特性

基於去年釋出的MobileNetV1的構建思路,新模型將深度可分離的卷積作為有效構建模組。在架構上,MobileNetV2引入了兩個新特性:一是層與層之間的線性瓶頸(linear bottlenecks),二是瓶頸之間的快捷連線。基本結構如下圖所示:


640?wx_fmt=png&wxfrom=5&wx_lazy=1 MobileNetV2架構概覽 | 藍色塊表示複合卷積架構模組

效能增強

總體來說,MobileNetV2能以更快的速度達到與V1相同的精度。

尤其值得注意的是,新模型減少了一半運算,所需引數減少30%,在谷歌Pixel手機上速度比MobileNetV1快了30-40%,同時實現了更高的精度。

640?wx_fmt=png MobileNetV2提高了速度(降低了延遲)並增加了ImageNet的Top 1的精度

在物件檢測和分割任務中,MobileNetV2是種非常有效的特徵提取器。例如當與新引入的SSDLite配對時,達到與MobileNetV1相同準確度時速度快了35%。目前研究人員已經在Tensorflow物件檢測API下開放了這個模型。
640?wx_fmt=png

為了實現裝置上的語義分割,研究人員將MobileNetV2作為一個特徵提取器,簡化了用移動語義分割模型DeepLabv3構建新的Mobile DeepLabv3的過程。

在語義分割基準上,PASCAL VOC 2012結果模型達到與使用MobileNetV1作為特徵提取器相似的效能,但所需引數減少了5.3倍,所需運算減少了5.2倍。

640?wx_fmt=png
總體來說,MobileNetV2提供了一個高效的移動導向模型,可作為許多視覺識別任務的基礎。

資源下載

目前,MobileNetV2作為TensorFlow-Slim影像分類庫的一部分發布,使用者也可在Colaboratory中開始探索使用。

此外,MobileNetV2也可作為TF-Hub上的模組,能在GitHub中找到預先訓練的檢查點。

官方部落格介紹:
https://research.googleblog.com/2018/04/mobilenetv2-next-generation-of-on.html

相關論文:
https://128.84.21.199/abs/1801.04381

程式碼地址:
https://github.com/tensorflow/models/tree/master/research/slim/nets/mobilenet

TensorFlow-Slim影像分類庫:
https://github.com/tensorflow/models/blob/master/research/slim/README.md

Colaboratory地址:
https://colab.research.google.com/github/tensorflow/models/blob/master/research/slim/nets/mobilenet/mobilenet_example.ipynb

作者系網易新聞·網易號“各有態度”簽約作者


活動報名

640?wx_fmt=jpeg

加入社群

量子位AI社群15群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot6入群;


此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。


進群請加小助手微訊號qbitbot6,並務必備註相應群的關鍵詞~通過稽核後我們將邀請進群。(專業群稽核較嚴,敬請諒解)

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。

640?wx_fmt=jpeg

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態


相關文章