【編者按】微軟亞洲研究院社會計算組的研究員們從深度學習、知識圖譜、強化學習、使用者畫像、可解釋性推薦等五個方面,展望了未來推薦系統發展的方向。
在前幾篇文章中,我們分別介紹了深度學習、知識圖譜、強化學習、使用者畫像在推薦系統中的應用以及未來可能的研究方向。在今天的最後一篇文章中,我們將介紹推薦系統的可解釋性。
前文所述推薦系統研究大都將重心放在提高推薦準確性上,與推薦物件的溝通考慮得不夠。近期,學者們開始關注推薦是否能夠以使用者容易接受的方式,充分抓住使用者心理,給出適當的例子與使用者溝通。研究發現,這樣的系統不僅能夠提升系統透明度,還能夠提高使用者對系統的信任和接受程度 、使用者選擇推薦產品的概率以及使用者滿意程度。設計這樣一個可解釋的推薦系統是我們的終極目標。
作為推薦領域被探索得較少的一個方向,可解釋推薦的很多方面值得研究與探索。目前,我們在考慮從下面三個方面進行研究。
1.利用知識圖譜增強演算法解釋能力。知識圖譜作為可讀性高的外部知識載體,給提高演算法解釋能力提供了極大的可能性。
現有的可解釋推薦所生成的推薦解釋往往只侷限於以物品為媒介、以使用者為媒介或者以特徵為媒介中的某一種,對這三類媒介之間的關聯挖掘得還不夠。我們希望能夠利用知識圖譜,打通這三類媒介之間的關聯,根據具體情況靈活選擇其中最合適的媒介對使用者進行推薦與解釋。
另外,我們還可能利用Microsoft Concept Graph這類概念圖譜,建立特徵之間的可讀深度結構,從而用來代替目前解釋性極弱的深度學習網路,在提高可讀性的同時保證演算法的準確性。
在可解釋人工智慧越來越重要的時代,將知識圖譜這類符號知識(symbolic knowledge)和深度學習結合,會是極有前景的方向。
2. 模型無關的可解釋推薦框架。目前可解釋推薦系統大多是針對特定的推薦模型設計,可擴充性較弱,對於新興的推薦模型,例如含有深度神經網路的複雜、混合模型的解釋能力還不夠。如果有一個模型無關的可解釋推薦框架,就可以避免針對每個推薦系統分別設計解釋方案,從而提高方法的可擴充性。
我們對此做了初步嘗試(A Reinforcement Learning Framework for Explainable Recommendation,ICDM2018)。在這一工作中,我們提出用如下的強化學習框架(圖1)來對任何推薦模型進行解釋,同時確保可擴充性、解釋能力以及解釋質量。
圖1:模型無關的可解釋推薦強化學習框架
3. 結合生成模型進行對話式推薦。目前的推薦解釋往往形式是預先設定、千篇一律的(如預先設定推薦解釋是以使用者為媒介的),這樣儘管也能根據使用者心理舉出一些例證,但是在溝通方式上還過於呆板。
如果能用生成模型讓推薦系統“自創”一句通順甚至高情商的話,就可以在與使用者聊天的過程中進行靈活、多變地推薦解釋了。我們團隊與微軟小冰合作,在這方面進行了一些嘗試,為小冰生成音樂推薦解釋。
我們認為未來的推薦系統需要進一步考慮推薦演算法的效率與可擴充性、融合多源異構的使用者行為資料,並捕捉使用者長短期的偏好;在推薦系統中結合知識圖譜推理、設計通用策略的學習機制、以及通過有限的使用者互動資料得到有效的決策模型是重要的研究方向;
在可解釋性方面,我們需要藉助知識圖譜來增強演算法解釋能力、設計模型無關的可解釋推薦框架、並考慮結合生成模型進行對話式推薦;
最後,我們需要認真關注使用者隱私問題,設計在不同平臺間共享使用者資料的機制,並建立面向推薦系統的統一使用者表示模型。
我們相信個性化推薦系統將在準確性、多樣性、計算效率、以及可解釋性多個不同的方向持續演進,最終解決使用者資訊過載的困擾。
想要了解關於推薦系統的更多研究熱點,還請持續關注。
相關閱讀:
歡迎大家點贊、收藏,將更多技術知識分享給身邊的好友。
本賬號為第四正規化智慧推薦產品先薦的官方賬號。本賬號立足於計算機領域,特別是人工智慧相關的前沿研究,旨在把更多與人工智慧相關的知識分享給公眾,從專業的角度促進公眾對人工智慧的理解;同時也希望為人工智慧相關人員提供一個討論、交流、學習的開放平臺,從而早日讓每個人都享受到人工智慧創造的價值。
第四正規化每一位成員都為人工智慧落地貢獻了自己的力量,在這個賬號下你可以閱讀來自計算機領域的學術前沿、知識乾貨、行業資訊等。
如欲瞭解更多,歡迎搜尋關注官方微博、微信(ID:dsfsxj)公眾號。