遷移學習《Cluster-Guided Semi-Supervised Domain Adaptation for Imbalanced Medical Image Classification》

VX賬號X466550發表於2023-04-11

論文資訊

論文標題:Cluster-Guided Semi-Supervised Domain Adaptation for Imbalanced Medical Image Classification
論文作者:S. Harada, Ryoma Bise, Kengo Araki
論文來源:ArXiv 2 March 2023
論文地址:download 
論文程式碼:download
視屏講解:click

1 摘要

  一種半監督域自適應方法,對醫學影像分類任務中常見的類不平衡情況具有魯棒性。 為了穩健性,提出了一種弱監督聚類流水線來獲得高純度聚類,並在表示學習中利用這些聚類進行域適應。 

2 方法

2.1 問題定義

  Consider that we have a set of  $m^{s}$  labeled source samples,  $\mathcal{D}^{s}=\left\{\left(x_{i}^{s}, y_{i}^{s}\right)\right\}_{i=1}^{m^{s}}$ , where  $x_{i}^{s}$  is the  $i$-th image sample in the source domain and  $y_{i}^{s} \in\{1, \ldots, C\}$  is its class label. In the target domain, we have a set of  $m^{t}$  labeled samples,  $\mathcal{D}^{t}=\left\{\left(x_{i}^{t}, y_{i}^{t}\right)\right\}_{i=1}^{m^{t}}$ , and a set of  $m^{u}$  unlabeled target samples,  $\mathcal{D}^{u}=\left\{x_{i}^{u}\right\}_{i=1}^{m^{m}}$ . Then we consider the problem of improving the classification performance using not only  $\mathcal{D}^{s}$  but also  $\left\{\mathcal{D}^{t}, \mathcal{D}^{u}\right\}$ , after adapting  $\left\{\mathcal{D}^{t}, \mathcal{D}^{u}\right\}$  to  $\mathcal{D}^{s}$ . Since we have the labeled samples  $\mathcal{D}^{t}$  in the target domain, this problem is called semi-supervised domain adaptation.

2.2 模型概念圖

  

2.3 方法簡介

2.3.1 弱監督聚類

透過軟約束聚類最佳化聚類

  第一個聚類最佳化步驟旨在將每個衝突的聚類(即具有來自不同類別標籤的樣本的聚類)劃分為幾個不衝突的聚類。約束聚類引入了兩種型別的約束,稱為 必須連結 和 不能連結。 必須連結 給應該分組到同一個叢集的樣本,而不能連結給不應該在同一分組的樣本。

  本文使用 k-means 初始化聚類,如果同一簇存在不同帶標籤的樣本則不能將 連結附加到它們,反之可以。連結附加後,再次執行聚類,同時滿足連結的約束。 應用此步驟後,叢集中標記的目標樣本始終屬於一個類。

透過基於比例的分裂進行聚類細化

 

  第二個聚類細化步驟旨在根據類比例 $\left(p_{1}, \ldots, p_{C}\right)$ 將聚類拆分為更小的聚類,這是由標記的目標樣本之間的類比推斷的。 這個目標類似於前面的細化步驟,但使用不同的標準。 粗略地說,在第一次細化之後,如果我們發現一個包含一個或多個標記樣本的大叢集,則該叢集將是一個非純叢集,應該將其拆分為更小的叢集。

   更具體地說,我們透過使用類比例將較大的叢集分成較小的叢集。 $\bar{c}_{i}$ 表示第 $i$ 個簇中標記樣本的類別,$u_{i}$ 是第 $i$ 個簇中未標記樣本的數量。 那麼,如果 $m^{u} p_{\bar{c}_{i}} \leq  u_{i}$ ,我們認為叢集對於類 $\bar{c}_{i}$ 來說太大了,因此透過 k-means (k = 2) 將其分成兩個較小的叢集。 因此,即使是小類,我們也可以期待高純度的簇。

2.3.2 叢集引導域適應

  使用上述謹慎步驟給出的聚類結果,我們現在執行聚類引導的域自適應,如 Figs.(c) 和 Figs.(d) 所示。 CNN 模型 $f$ 針對兩個目標進行訓練。 一種是透過交叉熵損失對所有標記樣本 $\mathcal{D}^{s} \cup \mathcal{D}^{t}$ 進行分類,使源樣本和標記目標樣本靠得更近,如 $Fig. \square(\mathrm{c})$ 所示。 另一種是引導未標記樣本 $x_{j}^{u}$ 重新訓練後更接近屬於同一簇的標記樣本 $\boldsymbol{x}_{i}^{t}$(即 $\boldsymbol{x}_{i}^{t}$ 比屬於 a 的 $x_{l}^{u}$ 更接近屬於同一簇的 $\boldsymbol{x}_{j}^{u}$ 不同的叢集)。 更具體地說,我們透過以下目標訓練模型:

    $\begin{array}{l}\mathcal{L}_{\mathrm{clu}}\left(\boldsymbol{x}_{i}^{t}, \boldsymbol{x}_{j}^{u}, \boldsymbol{x}_{l}^{u}\right)= \max \left\{\left\|\boldsymbol{f}\left(\boldsymbol{x}_{i}^{t}\right)-\boldsymbol{f}\left(\boldsymbol{x}_{j}^{u}\right)\right\|_{2}^{2}-\left\|\boldsymbol{f}\left(\boldsymbol{x}_{i}^{t}\right)-\boldsymbol{f}\left(\boldsymbol{x}_{l}^{u}\right)\right\|_{2}^{2}+\varepsilon, 0\right\}\end{array}$

  其中 $f(x)$ 表示樣本 $x$ 的特徵向量,$\varepsilon \in \Re^{+}$ 是邊距。 如 $Fig.1(d)$ 所示,透過使用這種損失訓練 $f$ 以及標記樣本 $x_{i}^{t}$ 的引導,將未標記樣本逐漸對映到源域的相應類。 請注意,在此框架中,我們沒有為未標記樣本提供任何偽標籤——未標記樣本被用作未標記樣本,以幫助使用 $Eq. (1)$ 中標記樣本進行表示學習。 

3 實驗

視覺化

  

4 總結

  略

相關文章