Leveraging Post-click Feedback for Content Recommendations
Authors: Hongyi Wen, Longqi Yang, Deborah Estrin
Recsys'19 Cornell University
論文連結:https://dl.acm.org/doi/pdf/10.1145/3298689.3347037
本文連結:https://www.cnblogs.com/zihaojun/p/15708632.html
0. 總結
這篇文章證明了在推薦系統中,將使用者點選之後沒有看完的物品作為負樣本的一部分參與訓練是有效的。
1.研究目標
利用使用者在點選之後的反饋資料,來解決點選資料中的噪聲問題,提高推薦系統的效能。
- 例如,使用者觀看視訊或聽音樂的時長,可以反映使用者看到物品之後是否真正喜歡。
2.問題背景
在構建推薦系統時,通常會選用隱式反饋資料作為訓練資料,但隱式反饋資料的正樣本不一定都是使用者喜歡的物品。例如,使用者點選了一個物品,這隻能反映使用者對這個物品的第一印象比較好,使用者在瀏覽之後可能並不喜歡這個物品。
3.分析點選之後的反饋資訊
資料集:
- Spotify:線上音樂資料集,包含上億的聽歌會話,每個會話包含最多二十首歌,記錄了使用者跳過還是聽完了每首歌,跳過與否是根據挑戰賽組委會設定的播放閾值。隨機選擇了九百萬會話進行分析。
- ByteDance:使用者與短視訊(10秒)的互動記錄,包含是否完播。選取了13 million的資料。
3.1 反饋資訊的特點
點選之後的使用者反饋在很多場景中都存在,這種反饋可能是顯式的(評分),也可能是隱式的(觀看時長)。在上述兩個資料集中,音樂和短視訊場景下,分別有51%和56%的互動是點選之後被跳過的。也就是說,超過半數的互動是點選之後使用者並不滿意的。
具體到每個物品和每個使用者的完播比例,如Figure 1所示,兩個資料集上面,左邊一列(使用者跳過比例)的分佈不同,可能是因為音樂和視訊的使用場景不同,音樂被跳過會更加隨機。
作者還觀察到,越冷門的物品,被跳過的比例越高。這可能是物品質量導致的。
3.2 點選和反饋資訊
用點選資料作為訓練集,分別在常規測試集和興趣測試集上進行效能測試,研究模型對點選行為和對完播行為的推薦精度差別。
- 常規測試集是指,將所有物品作為候選集,將測試階段點選物品作為正樣本。
- 興趣測試集是指,將測試階段的點選樣本作為候選列表,將完播資料作為正樣本(看能不能把完播排在跳過前面)。
最後得出結論,模型對點選行為的預測能力遠高於對完播行為的預測能力。
這一段實驗設計有問題,詳見Weakness部分
4.方法
方法是比較簡單的,雖然寫的很複雜。
總體思路就是把使用者跳過的樣本(skip)也當做負樣本。
4.1 Pointwise Loss
\(O_P\)表示使用者未跳過的互動,\(O_N\)表示使用者跳過的互動,\(O_M\)表示使用者未互動的物品。
其實就是把跳過的物品當做負樣本,並且加個權重。
4.2 Pairwise Loss
\(O_P\)中,i表示沒跳過的物品,j表示跳過的物品。
\(O_N\)中,i表示沒跳過的物品,j沒互動過的物品。
注意論文中把第二項的ij反了過來(增加一點複雜度),其實沒有必要。
當\(\beta = 0\)時,模型只利用沒有跳過的互動作為正樣本,而沒有利用跳過的樣本,稱為BL。
當\(\beta \not = 0\)時,模型稱為-NR。
5.實驗結果
實驗結果表明,將跳過的樣本作為負樣本(NR)是有效的,且直接將這些樣本從正樣本集中去除(BL)也是有效的
可以借鑑的地方
- 3.1的分析方法
- 資料集 Spotify[1]
Weakness
-
不是所有的場景都有這種點選之後的反饋資料可以用的,在沒有反饋資料的場景就不適用這種方法。
-
3.2的分析不合理
- 兩種測試任務的難度是不同的,常規測試任務的負樣本很簡單,但是興趣測試任務是很難的,因此直接比較兩種設定下的AUC絕對值是不合理的。
- 比較合理的實驗設定應該是保持測試方法一致,修改訓練集資料,用(跳過+完播)和(完播)兩種訓練方式,看測試效果有什麼不同。(看到後面才發現,這已經是論文主實驗了)
-
有錯詞,例如5.2部分第三個單詞purposed,應為proposed。
-
符號不一致,5.1部分使用的符號\(\lambda_p\)和\(\lambda_n\)在前文並沒有提到。
-
[29]和[30]兩篇引用是同一篇
進一步閱讀
[15] Hongyu Lu, Min Zhang, and Shaoping Ma. 2018. Between Clicks and Satisfaction: Study on Multi-Phase User Preferences and Satisfaction for Online News Reading. In The 41st International ACM SIGIR Conference on Research & Development in Information Retrieval. ACM, 435–444.
[34] Qian Zhao, F Maxwell Harper, Gediminas Adomavicius, and Joseph A Konstan. 2018. Explicit or implicit feedback? engagement or satisfaction?: a feld experiment on machine-learning-based recommender systems. In Proceedings of the 33rd Annual ACM Symposium on Applied Computing. ACM, 1331–1340.
[5] Yifan Hu, Yehuda Koren, and Chris Volinsky. 2008. Collaborative fltering for implicit feedback datasets. In Eighth IEEE International Conference on Data Mining (ICDM’08). IEEE, 263–272.
[8] Youngho Kim, Ahmed Hassan, Ryen W White, and Imed Zitouni. 2014. Modeling dwell time to predict click-level satisfaction. In Proceedings of the 7th ACM international conference on Web search and data mining. ACM, 193–202.
[11] Mounia Lalmas, Janette Lehmann, Guy Shaked, Fabrizio Silvestri, and Gabriele Tolomei. 2015. Promoting positive post-click experience for in-stream yahoo gemini users. In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 1929–1938.