遷移學習時間序列分類
https://www.toutiao.com/a6676762194882855428/
遷移學習時間序列分類
題目:
Transfer learning for time series classification
作者:
Hassan Ismail Fawaz, Germain Forestier, Jonathan Weber, Lhassane Idoumghar, Pierre-Alain Muller
來源:
Accepted at IEEE International Conference on Big Data 2018
Machine Learning (cs.LG)
Submitted on 5 Nov 2018
文件連結:
arXiv:1811.01533
程式碼連結:
https://github.com/hfawaz/bigdata18
摘要
深度神經網路的遷移學習是先在源資料集上訓練基網路,然後將學習到的特徵(網路的權重)轉移到目標資料集上訓練的第二個網路的過程。在影像識別和目標定位等計算機視覺任務中,該方法提高了深度神經網路的泛化能力。除了這些應用,深度卷積神經網路(CNNs)最近在時間序列分類(TSC)領域也得到了廣泛的應用。然而,與影像識別問題不同的是,在TSC任務中,遷移學習技術還沒有得到深入的研究。這是令人驚訝的,因為如果從預先訓練的神經網路對模型進行微調,而不是從零開始訓練,TSC的深度學習模型的準確性可能會得到提高。本文通過研究如何在TSC任務中傳輸深度CNNs來填補這一空白。為了評估轉移學習的潛力,我們使用UCR存檔進行了廣泛的實驗,UCR存檔是最大的公開可用的TSC基準測試,包含85個資料集。對於存檔中的每個資料集,我們預先訓練一個模型,然後在其他資料集上對其進行微調,得到7140個不同的深度神經網路。這些實驗表明,遷移學習可以根據用於遷移的資料集改進或降低模型的預測。因此,為了預測給定目標資料集的最佳源資料集,我們提出了一種基於動態時間扭曲的資料集相似性度量方法。我們描述了我們的方法如何引導轉換來選擇最佳的源資料集,從而提高85個資料集中71個資料集的準確性。
英文原文
Transfer learning for deep neural networks is the process of first training a base network on a source dataset, and then transferring the learned features (the network's weights) to a second network to be trained on a target dataset. This idea has been shown to improve deep neural network's generalization capabilities in many computer vision tasks such as image recognition and object localization. Apart from these applications, deep Convolutional Neural Networks (CNNs) have also recently gained popularity in the Time Series Classification (TSC) community. However, unlike for image recognition problems, transfer learning techniques have not yet been investigated thoroughly for the TSC task. This is surprising as the accuracy of deep learning models for TSC could potentially be improved if the model is fine-tuned from a pre-trained neural network instead of training it from scratch. In this paper, we fill this gap by investigating how to transfer deep CNNs for the TSC task. To evaluate the potential of transfer learning, we performed extensive experiments using the UCR archive which is the largest publicly available TSC benchmark containing 85 datasets. For each dataset in the archive, we pre-trained a model and then fine-tuned it on the other datasets resulting in 7140 different deep neural networks. These experiments revealed that transfer learning can improve or degrade the model's predictions depending on the dataset used for transfer. Therefore, in an effort to predict the best source dataset for a given target dataset, we propose a new method relying on Dynamic Time Warping to measure inter-datasets similarities. We describe how our method can guide the transfer to choose the best source dataset leading to an improvement in accuracy on 71 out of 85 datasets.
要點
我們的研究結果應該促使大資料從業者在對時間序列進行分類時,不再從零開始訓練模型,而是對預先訓練好的模型進行微調。特別是,如果設計得當,CNNs可以適應不同長度的時間序列資料集。在我們未來的工作中,我們的目標是再次減少深度神經網路的過擬合現象,通過使用加權DTW重心平均法[48]生成合成資料,因為後者的距離在指導一個複雜的深度學習工具,如轉移學習方面給出了令人鼓舞的結果。最後,隨著大資料儲存庫變得越來越頻繁,利用現有的與感興趣的目標資料集類似但並不完全相同的源資料集,使得轉移學習方法成為一種吸引人的方法。
圖1:有無以電器為源,OSULeaf為目標資料集的轉移學習方法的模型損失演化(訓練和測試)。(彩色效果最佳)。
圖2:時間序列分類的一般帶轉移學習的深度學習訓練過程。在本例中,首先在Car(源資料集)上對模型進行預訓練,然後在CBF(目標資料集)上對相應的權值進行微調。
圖3:轉移學習過程中採用的一維全卷積神經網路結構。
網路的輸入是一個可變長度的時間序列。輸出層是一個軟最大全連通分類器,其中C個神經元與資料集中的類數相等。(彩色效果表I顯示了兩種方法的相同超引數:有或沒有轉移學習。最佳)。
表I顯示了兩種方法的相同超引數:有或沒有轉移學習。
圖5:採用轉移學習方法對無轉移學習的卷積神經網路的三個聚合精度(最小、中值和最大值)。
圖6:兩種情況下微調模型的精度:(x軸)隨機選取源資料集時;(y軸)當使用我們的動態時間選擇源資料集時
扭曲的基礎解決方案。
圖7:微調模型在目標資料集ShapeletSim上相對於所選的源資料集鄰居的精度變化(為視覺清晰而平滑-以顏色顯示效果最佳)。
圖8:相對於所選的源資料集鄰居,微調模型在目標資料集上的精度變化(為視覺清晰而平滑-以顏色顯示效果最佳)。
圖9:相對於所選的源資料集鄰居,微調模型在目標資料集肉上的精度變化(為視覺清晰而平滑-以顏色顯示效果最佳)。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2640605/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 基於深度學習的時間序列分類[含程式碼]深度學習
- 影像分類學習:X光胸片診斷識別----遷移學習遷移學習
- 如何用 Python 和深度遷移學習做文字分類?Python遷移學習文字分類
- 什麼是遷移學習?什麼時候使用遷移學習?遷移學習
- 遷移學習系列---基於例項方法的遷移學習遷移學習
- 時間序列分析(一)--移動平均
- 遷移學習:互資訊的變分上下界遷移學習
- 遷移學習(Transfer Learning)遷移學習
- [深度學習] 時間序列分析工具TSLiB庫使用指北深度學習
- 【時間序列分析】01. 時間序列·平穩序列
- 貓狗大戰--使用 “VGG16進行CIFAR10分類” 遷移學習實現遷移學習
- 深度學習+深度強化學習+遷移學習【研修】深度學習強化學習遷移學習
- 遷移學習基本原理遷移學習
- [譯] TensorFlow 教程 #08 – 遷移學習遷移學習
- 基於VGG的遷移學習遷移學習
- 原始碼分析——遷移學習Inception V3網路重訓練實現圖片分類原始碼遷移學習
- 深度學習之遷移學習介紹與使用深度學習遷移學習
- 機器學習:詳解遷移學習(Transfer learning)機器學習遷移學習
- 深度學習之PyTorch實戰(4)——遷移學習深度學習PyTorch遷移學習
- Python遷移學習:機器學習演算法Python遷移學習機器學習演算法
- AngClust:基於角度特徵的短時間序列基因表達譜聚類(時間序列資料的聚類軟體)GC特徵聚類
- 【火爐煉AI】深度學習009-用Keras遷移學習提升效能(多分類問題)AI深度學習Keras遷移學習
- 站在巨人的肩膀上:遷移學習遷移學習
- 遷移學習中的BN問題遷移學習
- Laravel 學習之資料庫遷移Laravel資料庫
- 遷移學習(ADDA)《Adversarial Discriminative Domain Adaptation》遷移學習AIAPT
- 時間序列分析
- python 時間序列Python
- 遷移Oracle資料庫時如何減小停機時間AAOracle資料庫
- 深度學習不得不會的遷移學習Transfer Learning深度學習遷移學習
- 強化學習分類強化學習
- 使用Mobilenet和Keras進行遷移學習!Keras遷移學習
- 《PyTorch》Part5 PyTorch之遷移學習PyTorch遷移學習
- 圖解BERT(NLP中的遷移學習)圖解遷移學習
- 再談遷移學習:微調網路遷移學習
- 數字資訊化之遷移學習遷移學習
- 時間緊急!資料庫遷移怎麼才能更快?資料庫
- 時間序列分析基本思想及時間序列建模步驟