論文資訊
論文標題:Cluster-Guided Semi-Supervised Domain Adaptation for Imbalanced Medical Image Classification
論文作者:S. Harada, Ryoma Bise, Kengo Araki
論文來源:ArXiv 2 March 2023
論文地址:download
論文程式碼:download
視屏講解:click
1 摘要
一種半監督域自適應方法,對醫學影像分類任務中常見的類不平衡情況具有魯棒性。 為了穩健性,提出了一種弱監督聚類流水線來獲得高純度聚類,並在表示學習中利用這些聚類進行域適應。
2 方法
2.1 問題定義
Consider that we have a set of $m^{s}$ labeled source samples, $\mathcal{D}^{s}=\left\{\left(x_{i}^{s}, y_{i}^{s}\right)\right\}_{i=1}^{m^{s}}$ , where $x_{i}^{s}$ is the $i$-th image sample in the source domain and $y_{i}^{s} \in\{1, \ldots, C\}$ is its class label. In the target domain, we have a set of $m^{t}$ labeled samples, $\mathcal{D}^{t}=\left\{\left(x_{i}^{t}, y_{i}^{t}\right)\right\}_{i=1}^{m^{t}}$ , and a set of $m^{u}$ unlabeled target samples, $\mathcal{D}^{u}=\left\{x_{i}^{u}\right\}_{i=1}^{m^{m}}$ . Then we consider the problem of improving the classification performance using not only $\mathcal{D}^{s}$ but also $\left\{\mathcal{D}^{t}, \mathcal{D}^{u}\right\}$ , after adapting $\left\{\mathcal{D}^{t}, \mathcal{D}^{u}\right\}$ to $\mathcal{D}^{s}$ . Since we have the labeled samples $\mathcal{D}^{t}$ in the target domain, this problem is called semi-supervised domain adaptation.
2.2 模型概念圖
2.3 方法簡介
2.3.1 弱監督聚類
透過軟約束聚類最佳化聚類
第一個聚類最佳化步驟旨在將每個衝突的聚類(即具有來自不同類別標籤的樣本的聚類)劃分為幾個不衝突的聚類。約束聚類引入了兩種型別的約束,稱為 必須連結 和 不能連結。 必須連結 給應該分組到同一個叢集的樣本,而不能連結給不應該在同一分組的樣本。
本文使用 k-means 初始化聚類,如果同一簇存在不同帶標籤的樣本則不能將 連結附加到它們,反之可以。連結附加後,再次執行聚類,同時滿足連結的約束。 應用此步驟後,叢集中標記的目標樣本始終屬於一個類。
透過基於比例的分裂進行聚類細化
第二個聚類細化步驟旨在根據類比例 $\left(p_{1}, \ldots, p_{C}\right)$ 將聚類拆分為更小的聚類,這是由標記的目標樣本之間的類比推斷的。 這個目標類似於前面的細化步驟,但使用不同的標準。 粗略地說,在第一次細化之後,如果我們發現一個包含一個或多個標記樣本的大叢集,則該叢集將是一個非純叢集,應該將其拆分為更小的叢集。
更具體地說,我們透過使用類比例將較大的叢集分成較小的叢集。 $\bar{c}_{i}$ 表示第 $i$ 個簇中標記樣本的類別,$u_{i}$ 是第 $i$ 個簇中未標記樣本的數量。 那麼,如果 $m^{u} p_{\bar{c}_{i}} \leq u_{i}$ ,我們認為叢集對於類 $\bar{c}_{i}$ 來說太大了,因此透過 k-means (k = 2) 將其分成兩個較小的叢集。 因此,即使是小類,我們也可以期待高純度的簇。
2.3.2 叢集引導域適應
使用上述謹慎步驟給出的聚類結果,我們現在執行聚類引導的域自適應,如 Figs.(c) 和 Figs.(d) 所示。 CNN 模型 $f$ 針對兩個目標進行訓練。 一種是透過交叉熵損失對所有標記樣本 $\mathcal{D}^{s} \cup \mathcal{D}^{t}$ 進行分類,使源樣本和標記目標樣本靠得更近,如 $Fig. \square(\mathrm{c})$ 所示。 另一種是引導未標記樣本 $x_{j}^{u}$ 重新訓練後更接近屬於同一簇的標記樣本 $\boldsymbol{x}_{i}^{t}$(即 $\boldsymbol{x}_{i}^{t}$ 比屬於 a 的 $x_{l}^{u}$ 更接近屬於同一簇的 $\boldsymbol{x}_{j}^{u}$ 不同的叢集)。 更具體地說,我們透過以下目標訓練模型:
$\begin{array}{l}\mathcal{L}_{\mathrm{clu}}\left(\boldsymbol{x}_{i}^{t}, \boldsymbol{x}_{j}^{u}, \boldsymbol{x}_{l}^{u}\right)= \max \left\{\left\|\boldsymbol{f}\left(\boldsymbol{x}_{i}^{t}\right)-\boldsymbol{f}\left(\boldsymbol{x}_{j}^{u}\right)\right\|_{2}^{2}-\left\|\boldsymbol{f}\left(\boldsymbol{x}_{i}^{t}\right)-\boldsymbol{f}\left(\boldsymbol{x}_{l}^{u}\right)\right\|_{2}^{2}+\varepsilon, 0\right\}\end{array}$
其中 $f(x)$ 表示樣本 $x$ 的特徵向量,$\varepsilon \in \Re^{+}$ 是邊距。 如 $Fig.1(d)$ 所示,透過使用這種損失訓練 $f$ 以及標記樣本 $x_{i}^{t}$ 的引導,將未標記樣本逐漸對映到源域的相應類。 請注意,在此框架中,我們沒有為未標記樣本提供任何偽標籤——未標記樣本被用作未標記樣本,以幫助使用 $Eq. (1)$ 中標記樣本進行表示學習。
3 實驗
視覺化
4 總結
略