Deep CORAL: Correlation Alignment for Deep Domain Adaptation(2016)
Introduction
- 作者引進了一個叫做CORAL的方法,通過對source domain和target domain進行線性變換來將他們各自的的二階統計量對齊(對齊均值與協方差矩陣)。
- 但是作者認為CORAL實際上需要先對影象進行特徵提取,再進行線性轉換,再訓練一個SVM分類器,比較麻煩。
- 作者對CORAL方法進行了擴充,通過在source domain和target domain之間建立一個最小化source domain和target domain資料之間相關性的損失函式來將它併入deep networks。
- 作者將CORAL方法改進做非線性變換,並且直接作用於source domain和target domain。
Deep CORAL
- 假設:target domain上沒有標記的資料。
- 第一個目標是:平衡一個大的具有很好泛化的資料域(a large generic domain,比如ImageNet)和source domain之間的deep feature(深度網路學到的特徵)。可以通過將神經網路的引數用那個large generic domain預訓練過的網路的引數初始化並微調來達到目的。
- 第二個目標是:最小化source domain和target domain的deep feature的二階統計量的差別。
- 網路架構:
在fc8這一層當中,作者引入了CORAL loss這一損失函式。(AlexNet架構)
CORAL loss
source domain:
- 資料:
DS={xi} \ D_S = \{ x_i \},x∈Rd \ x \in R^{d} - 標籤:
LS={yi} \ L_S=\{ y_i \},i∈{1,...,L} \ i \in \{ 1,...,L\} - 有
nS \ n_S個資料,維度為d \ d(畫素數什麼的)
- 資料:
target domain:
- 資料:
DT={ui} \ D_T = \{ u_i \},u∈Rd \ u \in R^{d} - 有
nT \ n_T個資料,維度為d \ d(畫素數什麼的)
- 資料:
用
DijS(DijT) \ D^{ij}_S ( D^{ij}_T)表示第j \ j維度下source(target) domain資料中的第i \ i個樣本。用CS(CT) \ C_S(C_T)表示特徵的協方差矩陣。CORAL loss:
lCORAL=∥CS−CT∥2F4d2 l_{CORAL} = \frac {\lVert C_S - C_T \rVert ^{2}_F} {4d^{2}}- 後一個是矩陣的Frobenius範數
- 協方差矩陣計算:
CS=1nS−1(DTSDS−(lTDS)T(lTDS)nS) \ C_S = \frac{1}{n_S - 1}(D^{T}_S D_S-\frac{(\textbf{l}^{T}D_S )^T(\textbf{l}^T D_S)} {n_S})CT=1nT−1(DTTDT−(lTDT)T(lTDT)nT) \ C_T = \frac{1}{n_T - 1}(D^{T}_T D_T-\frac{(\textbf{l}^{T}D_T )^T(\textbf{l}^T D_T)} {n_T})- 其中
l \ \textbf{l}是一個所有元素為1的列向量
- gradient:
∂lCORAL∂DijS=1d2(nS−1)(DTS−((lTDS)TlT)T(CS−CT)nS)ij \ \frac{\partial l_{CORAL}}{\partial D^{ij}_S}=\frac {1}{d^{2}(n_S-1)} (D^{T}_S-\frac{((\textbf{l}^{T}D_S )^T\textbf{l}^{T})^{T}(C_S - C_T)} {n_S})^{ij}∂lCORAL∂DijT=1d2(nS−1)(DTT−((lTDT)TlT)T(CS−CT)nS)ij \ \frac{\partial l_{CORAL}}{\partial D^{ij}_T}=\frac {1}{d^{2}(n_S-1)} (D^{T}_T-\frac{((\textbf{l}^{T}D_T )^T\textbf{l}^{T})^{T}(C_S - C_T)} {n_S})^{ij}- 論文作者提到說這裡使用的是批次協方差(? batch covariances)
End-to-end Domain Adaptation with CORAL Loss
- 在減少分類損失(classification loss)的同時,引入CORAL loss作為正則項來減少過擬合的可能性(使得訓練出來的結果invariant to the difference between source and target domain)
- loss function:
l=lCLASS+∑i=1tλilCORAL l = l_{CLASS} + \sum^{t}_{i=1} {\lambda_i l_{CORAL}}
t \ t是CORAL loss 層的數目λ \ \lambda是用於平衡分類準確度和域適應的一個引數(就是讓lCLASS \ l_{CLASS}和lCORAL \ l_{CORAL}都不要太大)- 以上兩個引數相互對抗最終達到一個平衡(最終的feature可以在target domain工作的很好)。
結論
- 利用CORAL loss可以限制source domain和target domain之間資料的距離。(這個和利用核函式的MMD很像)
- 一種新穎的正則約束項
相關文章
- 遷移學習(JDDA) 《Joint domain alignment and discriminative feature learning for unsupervised deep domain adaptation》遷移學習AIAPT
- 論文解讀(DCRN)《Deep Graph Clustering via Dual Correlation Reduction》
- 遷移學習(COAL)《Generalized Domain Adaptation with Covariate and Label Shift CO-ALignment》遷移學習ZedAIAPT
- Deep "Hello world!"
- Vue 中的樣式穿透 v-deep、/deep/ 和 >>>Vue穿透
- iOS Deep Linkin 和 Deferred Deep LinkingiOS
- 遷移學習(APE)《Attract, Perturb, and Explore: Learning a Feature Alignment Network for Semi-supervised Domain Adaptation》遷移學習AIAPT
- 【面向程式碼】學習 Deep Learning(二)Deep Belief Nets(DBNs)
- js deep clone 深克隆JS
- Deep Learning with Differential Privacy
- 深度學習(Deep Learning)深度學習
- 論文提要 Deep Face Recognition
- 《DEEP LEARNING·深度學習》深度學習
- 【機器學習】李宏毅——Domain Adaptation(領域自適應)機器學習AIAPT
- 論文解讀(CAN)《Contrastive Adaptation Network for Unsupervised Domain Adaptation》ASTAPTAI
- 《Docker Deep Dive》閱讀筆記(一)Docker筆記
- 論文解讀(DGI)《DEEP GRAPH INFOMAX》
- 《推薦系統》-Wide&DeepIDE
- Join Query Optimization with Deep Reinforcement Learning AlgorithmsGo
- [Deep Learning] 神經網路基礎神經網路
- iOS Deep Linking 最佳實踐iOS
- Deep Learning 優化方法總結優化
- 論文解讀(CDCL)《Cross-domain Contrastive Learning for Unsupervised Domain Adaptation》ROSAIASTAPT
- 遷移學習(DCCL)《Domain Confused Contrastive Learning for Unsupervised Domain Adaptation》遷移學習AIASTAPT
- Heterogeneous Domain Adaptation 異質域適應論文合集AIAPT
- 論文速覽:Multi-source Domain Adaptation for Semantic SegmentationAIAPTSegmentation
- 深度學習(Deep Learning)優缺點深度學習
- Deep和Cross不得不說的秘密ROS
- Deep Hashing Network for Efficient Similarity RetrievalMILA
- css關於/deep/的解釋和用法CSS
- 「Deep & Cross Network for Ad Click Predictions」- 論文摘要ROS
- Ranked List Loss for Deep Metric Learning | 論文分享
- DEEP LEARNING WITH PYTORCH: A 60 MINUTE BLITZ | TENSORSPyTorch
- 顯示卡不是你學習 Deep Learning 的藉口
- Deep和Cross不得不說的祕密ROS
- Deep Transfer Learning綜述閱讀筆記筆記
- Udacity Deep Learning課程作業(一)
- Deep learning 資料彙總--持續更新