Deep Transfer Learning綜述閱讀筆記

SunStriKE發表於2023-03-24

這是一篇linkedin發表的深度遷移學習綜述, 裡面講了一些對於search/recommend system中的遷移學習應用. 有不少指導性的方法, 看完後摘錄出來

對於ranking方向的TL, 主要有兩種transfer方式:

Model transfer

  • 對於引數量非常大的預訓練模型, Fine-tuning 訓練代價比較大, 這裡基本沒介紹, 不太可行.

  • 更適合應用的方式是 multi-task training.(尤其是在多個產品線透過user來聯絡的場景)

    Cross domain: 適用場景為冷啟問題(新使用者/新場景), 提升accuracy(減少資料稀疏性, 學到更多的健壯特徵), 增強使用者模型, 主要有下面這幾種實現方式

    • Multi-view25d57f103e2afe2f712091ffd8728828

    • Partial Model Sharing

      image-20210120202530903
    • Partial Representation Sharing

      image-20210120202813082

instance transfer

這個tutorial裡主要介紹了一個selective instance transfer的方法, 主要思路是透過TL+GAN的思想來選擇樣本, 再透過RL的方法不斷最佳化模型效果. 使用場景是taobao->qingtao的item推薦遷移. 需要有label的source intance和target instance, 透過這個演算法來選出source instance的子集用於target domain的模型訓練, 從而提升target模型效果.

這個網路主要分成三個部分:

  • selector, 這個網路類似於GAN裡的generator, 負責從source樣本中選出與target相似的樣本. 輸入就是所有的source樣本. 另外還有一個作用是選出可以提升TL module在驗證集上
  • Discriminator, 判別器, 輸入的是source和target樣本, 這是個二分類模型. 主要作用是儘可能區分source和target, 同時根據這個網路得到一個immediate reward, 用來指導selector選擇.
  • TL module, 這個部分的輸入是selector選中的樣本, 這部分是用來透過驗證集來給一個delayed reward來指導selector, 這個module的輸入是選中的source資料和target資料, 這裡embedding_layer和discriminator是共享的, 上層根據不同的業務場景是不一致的, 比如推薦就可以是2層FC. 文字匹配就是DAM.
image-20210125172312037

相關文章