GhostNet論文筆記
GhostNet
pdf:https://arxiv.org/abs/1911.11907
程式碼:https://github.com/iamhankai/ghostnet
簡介
作者發現當CNN的提取的特徵層很多的時候,有大部分的特徵其實是相關的(如figure-1所示),
彼此之間的區別不大,並且因為卷積的特性,模型的引數量和計算量是與特徵緯度正相關的。因此為了在維持模型效能的前提下,進一步的減少模型的引數量和計算量,作者提出了使用線性核和卷積核組合的方法進行計算。先使用維度較少的卷積層計算特徵,再利用線性層計算與卷積層輸出相關的特徵。這種方法可以成倍的減少網路的引數和計算量,並儘量維持網路的效能。
ghost module
GhostNet由許多的ghost module組成,每個ghoset module分為兩個部分,第一個部分是常規的卷積,不過與普通的ResNet不同的是,ghost module輸出的維度是res module的1/s。第二部分是利用m個線性核計算卷積特徵的相關特徵(論文裡面稱作ghost feature),因為有多個線性核所以每個卷積特徵也會有多個ghost feature,最終的輸出緯度還是n = 卷積的特徵維度 + ghost feature的特徵維度。假設本來的resnet的卷積核大小為k*k*n,那麼ghost module的卷積核大小就為k*k*n/s,線性核大小為d*d,那麼理論上ghost module的提升速度的倍數就如下所示:
同理引數量也減少了s倍。
ghost net
ghost net整體結構與resnet相似,只不過吧res block替換成了ghost block,每個ghost block由兩個ghost module組成,前一個負責提升特徵維度,後一個用於對齊shortcut的維度。 當需要pooling時,網路會使用一個stride為2的深度可分離卷積替代pooling層。與mobileNet V2一樣,網路去掉了第二個ghost module
後面的非線性層。
試驗結果
可以看到相比mobileNet V3,在計算量更小一些的情況下,ghostNet的效果更好一些,不過引數量會多一些。
相關文章
- 論文筆記筆記
- BERT 論文筆記筆記
- Louvain 論文筆記AI筆記
- 【論文筆記】UNet筆記
- 論文筆記:RankIQA筆記
- Raft論文讀書筆記Raft筆記
- MapReduce 論文閱讀筆記筆記
- 9/12讀論文筆記筆記
- AutoEmbedding論文閱讀筆記筆記
- Text Summarization with Pretrained Encoders 論文筆記AI筆記
- 【論文筆記】 Popularity Bias in Dynamic Recommendation筆記
- 【論文筆記】 Denoising Implicit Feedback for Recommendation筆記
- CornerNet-Lite論文閱讀筆記筆記
- 【論文筆記】Bridging Hierarchical and Sequential Context Modeling筆記Context
- Visual Instruction Tuning論文閱讀筆記Struct筆記
- 【論文筆記】Recommendations as Treatments: Debiasing Learning and Evaluation筆記
- 【論文筆記】Learning Fashion Compatibility with Bidirectional LSTMs筆記
- 【論文筆記】Shortest Paths and Centrality in Uncertain Networks筆記AI
- ACL2020論文閱讀筆記:BART筆記
- 【論文筆記】A Survey on Deep Learning for Named Entity Recognition筆記
- Reading Face, Read Health論文閱讀筆記筆記
- Pixel Aligned Language Models論文閱讀筆記筆記
- 【論文筆記】SamWalker: Social Recommendation with Informative Sampling Strategy筆記ORM
- 【論文筆記】A review of applications in federated learning(綜述)筆記ViewAPP
- [論文閱讀筆記] Structural Deep Network Embedding筆記Struct
- 【論文筆記】FCN全卷積網路筆記卷積
- 論文閱讀筆記:Fully Convolutional Networks for Semantic Segmentation筆記Segmentation
- 【論文筆記】Neural machine translation by jointly learning to align and translate筆記Mac
- 論文筆記 SimpleNet A Simple Network for Image Anomaly Detection and Localization筆記
- 【論文筆記-16~】多語言關係抽取筆記
- Ensemble distillation for robust model fusion in federated learning論文筆記筆記
- 論文筆記:KDD 2020 Dual Channel Hypergraph Collaborative Filtering筆記Filter
- 【論文閱讀筆記】Transformer——《Attention Is All You Need》筆記ORM
- 【論文筆記】Leveraging Post-click Feedback for Content Recommendations筆記
- [論文閱讀筆記] Adversarial Learning on Heterogeneous Information Networks筆記ORM
- 《BASNet:Boundary-Aware Salient Object Detection》論文筆記Object筆記
- 論文筆記:What makes instance discrimination good for transfer learning?筆記Go
- 論文記錄