[Active Learning] Multi-Criteria-based Active Learning

wuliytTaotao發表於2019-04-22

Active Learning (AL) 的 query criteria 大致可以分為 3 類:informativenessrepresentativenessdiversity

下面我將分別介紹這三種 criteria,並介紹論文 [1] 中是如何結合三種 criteria 的。(這裡並不對 NER 部分做介紹。)

1 Informativeness

這種 criterion 用的應該是最多的,其中包括最簡單最常用的 uncertainty sampling。

在這篇論文中,也是將 sample 離 decision boundary 的距離來衡量該 sample 的 information。Closer to decision boundary, more informative.

僅用 informativeness 的 strategy 有可能會選到 outlier,故而需要考慮 representativeness。

[Active Learning] Multi-Criteria-based Active Learning
Fig. 1 [2] Outlier sample A is more informative than sample B and will be selected by informativeness query strategy.

2 Representativeness

Representativeness 的衡量需要比較兩個 samples 的 similarity,論文 [1] 中採取餘弦相似度來衡量 similarity。

一個 sample 的 representativeness 可以用它的 density 來量化,即等於該 sample 與其它所有 unlabeled set 中樣本 similarity 的均值。即:
\[ Denstity(\boldsymbol x_i) = \frac{\sum_{j \not = i} Sim(\boldsymbol x_i, \boldsymbol x_j)}{N-1} \]

其中,\(N\) 表示 unlabeled set 的大小。

如果某一個 sample \(\boldsymbol x^*\) 的 density 最大,那麼 \(\boldsymbol x^*\) 也就是 unlabeled set 的 centroid。

當然,representativeness 的衡量不止論文 [1] 提到的這種方式,如論文 [3] 使用樣本與部分鄰居的 similarity 來表示 density,而不是整個 unlabeled set。

3 Diversity

Diversity 這個 criterion 是對 batch-mode active learning 才有的,當我們需要一次選擇多個 samples 時,如果不考慮 diversity,很可能會重複選擇同一區域的點,造成浪費。

論文 [1] 提出了兩種利用 diversity 的方法:GlobalLocal

3.1 Global consideration

這種方式將 unlabeled set 用 K-means 劃分成 K 個區域,在每一輪選擇中,一個 batch 內的點需要從 K 個不同的區域中分別選擇。

在實際利用時,可能不會對整個 unlabeled set 進行 K-means 劃分,有可能只是對 unlabeled set 的一個子集進行劃分,提高效率。

3.2 Local consideration

這種方式就不太考慮 unlabeled set,關注的重點在要選擇的 batch 上。

在每一輪的 query 中,我們如果想要將一個 selected sample \(\boldsymbol x_{new}\)加入到 current batch,需要該 selected sample 和已經在 current batch 中的樣本有足夠大的區別,即 \(Similarity(\boldsymbol x_{new}, \boldsymbol x_{old}) > \beta\),其中 \(\beta\) 可以取整個 unlabeled set 樣本之間 similarity 的均值。

在 local method 的情況下,一個個 selected samples 將經過篩選順序加入到 batch 中。selected sample 是如何被 select 出的?可以 random,也可以用 informativeness 和 representativeness 的方式。

4 Combinations of three criteria

single-criterion 的 query strategy 在很多時候不如 multi-criteria 的 strategy。論文 [1][3] 中都有類似結論。

以下將介紹論文 [1] 提出的關於如何結合 informativeness、representativeness 和 diversity 三種 criteria 的兩種方式。

4.1 Strategy 1

流程:

  1. 使用 Informativeness 這一 single criterion 選出 top M 個 most informative 的 samples,將其組成一個集合 interSet;
  2. 對 interSet 集合進行 K-means 聚類,聚成 K 個 clusters,並選擇出每個 cluster 的 centroid 作為 selected sample 加入到 batch 中。(batch 的 size 也為 K。)

K-means 的 centroids 既代表了 interSet,又有 diversity。該 strategy 使用了 diversity 的 global method。

4.2 Strategy 2

流程:

  1. 按照 \(\lambda \operatorname{Info}\left(\boldsymbol x_{i}\right)+(1-\lambda) \text {Density}\left(\boldsymbol x_{i}\right)\) 結合 informativeness 和 representativeness 這兩個 criteria,然後按照得分的高低選擇出 selected samples;
  2. 一個 selected sample 想要加入到 batch 中,必須要滿足新加入的點與已經在 batch 中的點的 similarity 大於某個閾值 \(\beta\),即使用 diversity 的 local method 對 selected samples 再進行一次 diversity 篩選。

\(\lambda\) 是一個超引數,需要人工設定,用來控制 informativeness 和 representativeness 的權重。論文 [3] 對 \(\lambda\) 的取值做了更加詳細的研究,可以動態設定 \(\lambda\) 的值。

4.3 Strategy 1 vs. Strategy 2

在論文 [1] 的實驗中,strategy 2 的效果要好於 strategy 1。

References

[1] Shen, D., Zhang, J., Su, J., Zhou, G., & Tan, C.-L. (2004). Multi-criteria-based active learning for named entity recognition. (ACL) https://doi.org/10.3115/1218955.1219030
[2] Burr Settles. (2009). Active Learning Literature Survey. Computer Sciences Technical Report 1648, University of Wisconsin-Madison.
[3] Ebert, S., Fritz, M., & Schiele, B. (2012). RALF: A reinforced active learning formulation for object class recognition. (CVPR) https://doi.org/10.1109/CVPR.2012.6248108

相關文章