深度殘差收縮網路:(二)整體思路
其實,這篇文章的摘要很好地總結了整體的思路。一共四句話,非常簡明扼要。
我們首先來翻譯一下論文的摘要:
第一句:This paper develops new deep learning methods, namely, deep residual shrinkage networks, to improve the feature learning ability from highly noised vibration signals and achieve a high fault diagnosing accuracy.
翻譯:本文提出了新的深度學習方法,即深度殘差收縮網路,來提高深度學習演算法從強噪聲訊號中學習特徵的能力,並且取得較高的故障診斷準確率。
解釋:不僅明確了所提出的方法(深度殘差收縮網路),而且指出了面向的訊號型別(強噪聲訊號)。
第二句:Soft thresholding is inserted as nonlinear transformation layers into the deep architectures to eliminate unimportant features.
翻譯:軟閾值化作為非線性層,嵌入到深度神經網路之中,以消除不重要的特徵。
解釋:深度殘差收縮網路是ResNet的改進。這裡解釋了深度殘差收縮網路與ResNet的第一點不同之處——引入了軟閾值化。
第三句:Moreover, considering that it is generally challenging to set proper values for the thresholds, the developed deep residual shrinkage networks integrate a few specialized neural networks as trainable modules to automatically determine the thresholds, so that professional expertise on signal processing is not required.
翻譯:更進一步地,考慮到軟閾值化中的閾值是難以設定的,本文所提出的深度殘差收縮網路,採用了一個子網路,來自動地設定這些閾值,從而避免了訊號處理領域的專業知識。
解釋:這句話點明瞭本文的核心貢獻。本文不僅在網路模型中引入了軟閾值化,而且給出了自動設定閾值的方式。
第四句:The efficacy of the developed methods is validated through experiments with various types of noise.
翻譯:該方法的有效性透過不同噪聲下的實驗得到了驗證。
解釋:實驗驗證部分考慮了不同種類噪聲的影響。
總結:深度殘差收縮網路=ResNet+軟閾值化+自動設定閾值。
上一篇的內容:
深度殘差收縮網路:(一)背景知識 https://www.cnblogs.com/yc-9527/p/11598844.html
原文的連結:
M. Zhao, S. Zhong, X. Fu, B. Tang, and M. Pecht, “Deep Residual Shrinkage Networks for Fault Diagnosis,” IEEE Transactions on Industrial Informatics, 2019, DOI: 10.1109/TII.2019.2943898
https://ieeexplore.ieee.org/document/8850096
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69957925/viewspace-2669629/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 深度殘差收縮網路:(三)網路結構
- 深度殘差收縮網路:(一)背景知識
- 深度學習故障診斷——深度殘差收縮網路深度學習
- 殘差網路再升級之深度殘差收縮網路(附Keras程式碼)Keras
- 十分鐘弄懂深度殘差收縮網路
- 深度殘差收縮網路:(五)實驗驗證
- 深度殘差收縮網路:(六)程式碼實現
- 深度殘差網路(ResNet)
- 深度殘差收縮網路:(四)注意力機制下的閾值設定
- 深度學習之殘差網路深度學習
- 深度三維殘差神經網路:視訊理解新突破神經網路
- 殘差神經網路-ResNet神經網路
- 學習筆記16:殘差網路筆記
- 殘差網路(Residual Networks, ResNets)
- PyTorch入門-殘差卷積神經網路PyTorch卷積神經網路
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄1)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄2)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄3)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄4)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄5)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄6)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄7)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄8)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄9)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄10)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄11)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄12)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄13)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄14)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄15)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄16)函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄17)函式
- 深度學習——手動實現殘差網路ResNet 辛普森一家人物識別深度學習
- 從AlexNet到殘差網路,理解卷積神經網路的不同架構卷積神經網路架構
- 影像分割論文 | DRN膨脹殘差網路 | CVPR2017
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄26)Cifar10~95.92%函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄18)Cifar10~94.28%函式
- 深度殘差網路+自適應引數化ReLU啟用函式(調參記錄19)Cifar10~93.96%函式