京東張政:內容理解在廣告場景下的實踐和探索

DataFunTalk發表於2022-06-17

分享嘉賓:張政 京東 演算法工程師

編輯整理:AMS 周金星

出品平臺:DataFunTalk


導讀: 內容生態建設是近幾年網際網路快速發展的關鍵動因,也是AI化的重點方向之一。本文主要分享在京東廣告業務下內容理解體系的建設情況,從標籤化、內容准入、質量美學評價等多個角度探討內容理解能力的應用;同時整體介紹智慧創意助力廣告內容生態建設,從內容理解到內容生成(視訊、圖片、文案),再到內容分發,並穿插OCR、智慧摳圖、多模態等相關的基礎前沿演算法能力。

本文將圍繞以下幾部分進行展開:

  • 背景介紹
  • 內容理解體系
  • 智慧內容生成
  • 創意優選&分發
  • 業務落地

file

--

01 背景介紹&問題定義

file

為什麼要做智慧創意?由圖可見,從04年開始內容化生態逐步崛起,帶動了網際網路的新一波發展,特別是短視訊,湧現出瞭如抖音、快手等一系列新媒體,目前已擁有大量受眾。另外,像京東、阿里這類電商平臺也在做內容化,直播、視訊、互動等新玩法,加速了內容化的能力建設。因此總結兩點:

  • 流量的內容化成就了網際網路的增量
  • 內容的電商化開始引領主流趨勢

針對龐雜的資訊,如何更好地理解並推薦給使用者,是智慧創意要解決的問題。同時在內容化建設的大背景下,平臺方也承擔了廣告內容生態建設的關鍵職責。

對智慧創意的定義是:通過AI對商品內容進行理解,在感知學習的基礎上構建規劃和推理能力,基於實時的生成引擎和素材挖掘來構建視訊、圖片、文案的創意,並通過創意優選來實現精準的使用者匹配。可以簡單歸納為三個階段:內容的理解、生成和分發。

file

上圖呈現了智慧創意的全過程,也是本次分享內容的主要框架:

1. 內容理解

最左邊是商品資訊,京東站內擁有數以億計的商品,每個商品的內容資訊包括了標題、主圖、商品詳情圖、使用者評論等。基於這些資料,可以做很多事情,比如藉助NLP,可以通過標題壓縮來生成短標題或者新標題,通過主顏色識別或者商品識別來建立圖片內容的標籤,從而判斷圖片是否足夠優質,是否適合作為廣告露出。

2. 創意生成

藉助CV能力,可以通過佈局理解或素材挖掘,對商品詳情圖進行結構化的分析,藉助智慧裁剪生成新圖片來更突出商品的主體或者賣點等。藉助視訊分析,可以通過人的檢測或行為識別,對視訊裡的優質片段或精彩點進行摘要,再提取更優質的內容讓使用者更容易get到商品賣點。在這些基礎上,構建的就是內容的標籤化,在內容標籤化構建完成後可以藉助智慧搭配能力來進行創意生成。

3. 創意分發

創意內容存在多樣性,如何更好地體現賣點,就要藉助創意優選,創意優選是一個內容的分發階段,分發階段需要解決的問題是如何基於優選模型來實現生成內容和使用者的個性化匹配,後文會講到多模態演算法的應用。在京東的電商體系下,內容是一個天然的多模態場景,它包含文字、視訊、影像、語音等各種多模態資料,如何對這些資料進行更好地融合和表徵,是做好內容分發的關鍵點。

--

02 內容理解體系

1. 內容理解體系概覽

file

為什麼要構建內容體系?作為智慧創意的第一步,它用於實現基礎演算法的標籤化,從素材標籤到素材准入,再到素材優選,都可以提供關鍵的能力支撐。內容體系分為三個部分:

  • 第一部分是基礎演算法以及內容標籤化,底層用到了大量的基礎演算法;
  • 第二部分是素材准入,是指通過稽核解決資料篩選和過濾問題;
  • 第三部分是質量和美學的評價,即如何去從眾多內容中篩選優質的素材或者創意。

2. 內容標籤化

file

如上圖,先通過場景分類或者語義分割提取圖片的背景,是天空還是草地。同時,藉助商品檢測去檢測裡面的人,或者他背的包,藉助商品分割,可以精確地分割商品的邊緣。有了邊緣資訊後,對商品的細節特徵進行分析,比如得到商品屬性:黑色的女包。商品屬性可以用於後續的商品檢索,通過找到類似的商品進行內容的召回和推薦。關於商品標題,可以從標題去做基礎解析,比如抽取產品詞、屬性詞、修飾詞等。

對於整個圖片,能通過美學的質量評價給圖片打分,比如畫面是否足夠清晰,亮度是否正常等,以及基於logo檢測,檢測圖片上有沒有商品logo等。

演算法角度,對於圖片,有大量影像演算法可以去做分析,但因為內容理解本身會受限於基礎演算法的準確度,在實際業務上可能會面臨非常大的挑戰。比如我們基於MS COCO的資料集,在做檢測的時候AP0.5只能做到78%,同樣每個底層演算法都會面臨準確度的問題。在電商場景下,因為商品型別更具有多樣性,所以面臨的挑戰會更大。

龐大的商品體系會導致面臨商品類別的多樣、類別相似、內間樣本不均衡等問題。同時和自然場景不一樣,電商場景因為存在大量的handmade,比如圖片上加的牛皮癬等。為了解決這些問題,我們前期進行了大量的資料集標註、資料集的模擬和增強,同時也構建了一套底層的基礎演算法服務,可以保障整體的服務效率,對模型進行了輕量化的TensorRT加速等等工作。最終形成了一套基礎的商品結構化的素材庫, cover了億級別的SKU,通過對這些商品內容進行結構化的提取,應用於各業務線。

file

基礎演算法以OCR識別為例展開講解。OCR現在的應用非常廣泛,比如安防監控領域的車輛識別,金融領域的票據識別,線上教育的考題識別等。雖然文字識別演算法經歷了長期的發展,基於深度學習效果上也取得了非常大的進步,但目前仍存在很多挑戰,比如背景的干擾、不規則的文字等,這些都成為制約演算法效果的典型問題。同時針對多尺度、不同語言、密集文字行等問題,也對演算法的準確性和魯棒性提出了更高的要求和挑戰。

對於電商場景同樣如此,作為內容理解和生成中呼叫最多的演算法,OCR在智慧創意的體系中扮演關鍵的角色。我們面臨的問題有誤檢或者漏檢:內容包含價格資訊、時間資訊、尺度的變化、藝術字等;對文字框檢測不準確:可能會遇到特別長的文字,或者是傾斜的、豎版文字等。

面對這些問題,我們從資料標註、資料模擬、模型設計以及模型加速等幾個方面建立了一套專門的體系。上圖右邊是一個典型的檢測模型結構圖。

file

文字識別演算法分為檢測和識別兩部分,表格模型對比展示了我們檢測演算法的檢測效果。主流的文字檢測演算法分為三種:

  • 第一種是Anchor-based的方法,最早的fast R-CNN就是基於Anchor-based去做的
  • 第二種是基於Anchor-free的迴歸方法
  • 第三種是基於分割的方法

Anchor-based的迴歸方法是從傳統的目標檢測演算法發展而來,通過調整Anchor的寬高比來適應文字檢測中寬高比過大的問題,經典的演算法有Textboxes等,這類方法比較簡單直接容易理解,但問題是有了Anchor以後,召回比較高,但是精度較差,而且它會受限於Anchor的配比,例如要檢測寬高比為 3:1 的Anchor,對於寬高比為 10:1 的長文字檢測能力就會比較差。

還有一些問題比如傾斜,對於傾斜問題也有一些新演算法,比如RRCNN來通過預測一個旋轉角來解決。隨著網路表達能力的提升,一些Anchor-free的方法也取得了比較不錯的效果,且速度上也有明顯優勢,其中比較有代表性的是East演算法,它可以預測每個點到文字框或者文字框頂點的距離,通過這種方式來回歸矩形框,該方法在工業界得到了很好的落地,我們前期也用過。

第三種方法,比如近些年大家都在研究基於彎曲的檢測等方法,都是基於分割的方法,也就是通過判別影像中每個畫素是否屬於某個文字框,這樣可以檢測出任意形狀的文字框,比較經典的有一些PSEnet或者DBnet等,基於分割的方法主要挑戰在於如何分離不同的文字例項,上述方法都提出了自己的解決方案,尤其是DBnet,可以大大縮短後處理的時間。

對於檢測模型的優化,我們在實際的商品詳情頁上,基於大量的商品資料統計了其中具體的文字分佈,包括文字、字型、字號、顏色、方向等,並結合這個資料標註以及樣本模擬來構建了一個十萬量級的資料集。雖然效果上已經很不錯了,但是對於一些特別小的字型,仍然有很大的提升空間。目前我們的線上OCR模型每天呼叫上億次,面對如此龐大的應用,我們也通過輕量級的模型包括TensorRT加速來實現高吞吐率和TP99的效能。另外對於資料集,我們目前準備增加一些多模態的資料標註,比如商品的類目、品牌等資訊,後面有合適的機會我們也會將該資料集開源。

3. 素材准入

file

內容理解的第二部分主要解決的是素材的准入問題。為什麼要解決這個問題比較好理解,比如你在逛京東的時候,不希望突然看到一個恐怖的商品圖,或者一張帶牛皮癬的不適圖,或者是一張過於性感暴露的美女圖。當然也有很多人喜歡看美女圖,所以可能會面臨標準界定的問題:有人覺得OK的圖片在某些媒體就有投訴風險。如何去解決分級的問題?

一方面,為不同的廣告位提供不同的配置,通過Score得分閾值來提供給業務方進行控制。

另一方面,針對比如涉黃涉恐不同的模型,我們是統一為一個大模型進行訓練,通過這種方法來提升整體的識別能力。

對於不適圖,由於其標準定義不夠清晰、內容變化、差異較大等問題,是很難通過一個有效的資料進行標註的,為此我們建立了一套基於相似度檢索的不適圖識別演算法。首先通過圖片的embedding來提取特徵,通過特徵加入特徵索引庫,以相似度召回的方式來召回與特徵相似的一些圖片。我們認為如果相似,它是不適圖的概率就會比較大。基於這種方法,可以對不適相簿進行定期更新和調整,可以有效解決線上case快速響應的問題。

file

為了應對整個京東廣告體系下的素材准入和稽核問題,我們構建了一套清流的智慧稽核系統。如上流程圖,整個系統分為三個部分。

第一部分是建立資料標註和清洗的規則,然後藉助資料清洗和困難樣本挖掘,結合自動化的資料拉取,可以為標註平臺提供充足的標準資料。
第二部分是針對APP的負反饋建立了資料迴流機制,通過建立向量圖片庫,藉助人工稽核的基礎提供給訓練模型更具有時效性的訓練資料,同時結合文字分類、圖片的稽核模型,形成一個多模態的判別模型,可以大大提升模型的整體準確度。
第三是通過自動更新和模型的ABtest來保證線上模型在實際業務中的識別效果。目前我們稽核系統已經對億級的廣告商品進行稽核,可以覆蓋標題、圖片、視訊以及落地頁等,已經成為智慧創意裡面不可或缺的一個關鍵部分。

4. 質量/美學評價

file

接下來是內容理解體系的第三部分,美學和質量評價體系的建立。在素材准入的基礎上,如何篩選出更優質的素材,產出更優質的創意,這就是評價體系要解決的問題。評價體系的建立並不像人的直觀判別這麼簡單,首先是資料標註問題,每個人衡量美醜的標準是不一樣的。其次需要有效地解決各個維度之間的對齊和配比問題,針對這個問題,我們的方案是建立一個模型化端到端的解決方案,這樣做的優勢有兩個:

  • 第一是可以讓模型去學習各個維度之間的權重和耦合關係;
  • 第二是可以發掘除了現有維度之外的特徵,還可以結合我們的希望讓模型學到一些額外特徵,比如點選率的影響等。

以上就是我們內容理解體系要解決的問題。

--

03 智慧內容生成

file

1. 智慧創作背景

人們對於世界的認知可以分為三個階段:對這個世界進行理解,然後在理解的基礎上,可以進行交流,最後在理解和交流的能力建立以後,會通過智慧創作來進行自我情感的表達。

  • 第一個階段:AI已經開始從內容識別到內容生成的演進,可以基於GAN和強化學習來構建更強大的推理能力。
  • 第二個階段:基於人機協同的自主創作價值開始顯現,基於多模態的知識圖譜、專家體系可以逐步解放人們的重複性工作,來實現海量內容的實時個性化生成。
  • 第三個階段:行業價值開始凸顯,從創業生成衍生到影音創作、建築規劃等,會影響越來越多的創作場景。

在智慧創作上,我們會有整個UED團隊作為支撐,然後通過設計+智慧來塑造行業的價值影響,同時基於巨大的廣告落地場景,致力於AI創作的不斷迭代和實踐。下面我分幾個具體的任務場景來簡單介紹。

file

上圖呈現的從商詳內容挖掘到視訊生成的整個過程。其中用到的演算法比較多,比如文字識別、智慧裁剪、顯著性判斷、語音等。商詳頁作為一個典型的場景,包含了大量有價值的商品圖片,首先基於佈局分析來對圖片裡的有效內容進行裁剪,然後在這個基礎上通過商品識別來提取有價值的商品圖,並通過相似度的匹配來進行圖片過濾,這樣可以兼顧內容的有效性和多樣性,同一個商品我們不希望同樣的圖出現多次。然後基於文字識別和NER模型分別提取圖片和商品標題裡的關鍵賣點,同時通過TTS的演算法將字幕轉化成語音。最後結合背景音樂或者特效來生成最終視訊,這就是從商詳挖掘到視訊生成的整個過程。這是我們早期的方案,現在我們更多是從視訊的拍攝角度、視訊摘要、視訊片段之間的組合去做視訊生成。

2. 視訊摘要生成

file

第一個任務場景是視訊摘要,即基於商家上傳的長視訊提取精彩片段,通過重新組合來形成情節更加緊湊,賣點更加突出的短視訊,因為現在短視訊的應用場景非常多。

如何生成視訊摘要?

首先是鏡頭切分,對視訊中每一幀的特徵進行分析,提取相鄰幀之間的特徵相似度從而判斷視訊中每一個鏡頭的邊界,基於傳統的演算法或深度學習的方式都可以實現。

第二部分是藉助前面提到的視訊標籤化能力,建立商品檢測、人臉、人體的檢測、文字或者視訊質量、動作這些標籤,在此基礎上建立標籤化表示。

第三部分是會引入文字特徵,主要包括品牌詞、產品詞,以及完整的標題等,可以建立文字特徵的統一表示。

第四部分是在建立特徵表示以後,會去計算特徵間的相關性,比如根據商品主圖或者文案資訊的特徵來得到商品特徵或文字特徵,可以匹配視訊中與該特徵相關的一些片段,同時可以考慮對視訊中其他識別結果的作用,比如突出商品或突出視訊的多樣性,這都是不同的生成目標,我們可以在不同的目標基礎上去調整不同的權重,來生成不同的短視訊。

最後是目標鏡頭的識別,是綜合視覺的相關性和文字的相關性來識別視訊中的目標鏡頭,可以採用加權融合,也可以直接讓模型按照你的配比去進行學習。

目前摘要演算法已經廣泛應用於站內外的各個場景,同時也為自動化的生成及其工具化提供了能力。

file

可以看以上兩個演算法例項,它們是通過摘要演算法對商品的關鍵片段進行了抽取,對商品的關鍵細節特徵以及圖文相結合的內容進行了選取,主要是突出質感、攝像功能等一些賣點,左邊是原始視訊,右邊是摘要生成的視訊,更突出商品以及商品的圖文相關性。短視訊的優勢是可以在最短的時間內去吸引使用者關注,所以會更多地去突出一些典型的、精彩的點。以上是我們視訊摘要演算法的過程。

3. 圖片創意生成

file

第二個任務場景是圖片的創意生成,圖片創意生成是在創意元素基礎上進行智慧的衍生和加工,再結合元件化、序列化或者模型化的方式來進行生成。

圖片生成有四個典型的部分:原生/場景化、分層/元件化、微動效、實時的圖片生成引擎。左邊的圖是原生場景化的生成方案,通過對商品背景進行提取,然後結合GAN進行背景生成,得到和商品背景顏色、調性一致的圖片。右邊的圖是序列化的生成方案,是將創意拆解成背景層、裝飾層、商品層、遮罩層,還有文字元件層,並通過智慧搭配、智慧佈局來進行實時的生成。

這裡要強調下我們打造的一個基於使用者特徵的實時優選和生成的引擎,引擎可以實現創意到使用者的實時個性化的解決方案。假設每個創意包含十組文案、十個背景和十個裝飾層,就可以得到1000種組合關係,實際的情況可能比這個還要多。線上目前採取的是先優選再生成的思路,通過優選模型,先選擇好的創意元素,再借助實時生成引擎來進行元素的組合渲染,整個過程可以控制在20毫秒以內,該引擎已經成為我們智慧圖片生成的核心支撐。

file

與之對應,介紹智慧摳圖演算法,摳圖在業務上已經大量使用了,為內容生成提供了大量的透底圖素材,作為後續序列化生成的基礎。語義分割或者例項分割演算法中,物體的邊緣定位或對於邊緣畫素的分類是一個比較難解決的問題,而摳圖演算法在這個基礎上面臨的挑戰更大:

  • 第一是作為畫素級的任務,如何對邊緣進行更好的定位,包括邊緣畫素的Alpha值提取,這是更難的。
  • 第二是商品的多樣性,京東站內的商品種類上億,同時還會面臨諸如形變、遮擋、或者圖上有文字等一系列問題,都會影響識別或者摳圖的效果。

針對這些挑戰,我們的目標是構建一個基於商品集的端到端的摳圖模型,通過這種方式實現一鍵摳圖。右上方是我們的扣圖效果,目前看還是不錯的。

針對訓練資料生成和模型訓練,我們做了一些優化:

在資料上,建立一套從資料獲取到清洗、標註、訓練的自動化流程。其中用到了很多輔助演算法,包括相似度識別、影像校正、質量清晰的判別過濾等。在此基礎上,構建了一個十萬量級的電商資料集,目前資料獲取率只有1.7/10000。

在演算法上,我們採用了Transformer來對商品和背景的特徵進行提取。這種方法可以對全域性特徵和區域性特徵進行比較好的結合,既能保證全域性語義的完整性,又保留了待摳圖商品部分的邊緣細節,同時加入了Attention的方式,可以對商品的邊緣和背景之間的聯通區域做有效的判別和分類,以此更好地區分背景,整體上我們的控制效果已經達到了業界領先的水平。技術成果正在進行論文撰寫,資料集也希望後續可以開源。

file

4. 文案創意生成

第三個任務場景是文案生成,文案的種類有很多,比如智慧標題、短文案、賣點文案、走心文案等,包括使用標題壓縮排行標記生成,也包括基於主圖或商詳進行賣點文案的識別和挖掘後基於圖文結合多模態的方式來進行生成。

主要介紹基於VAE的生成方案,是通過學習達人撰寫的優質文案來對不同的SKU生成個性化的文案資訊。在傳統Sequence to sequence模型的架構下,為了獲取更強的特徵提取能力,將編碼和解碼的LSTM和Attention轉化為了Transformer,也借鑑了VAE的方案,在encoder上加入了VAE能力,可以增加文案的多樣性。同時在decoder端,我們是由之前的核取樣轉化成了Beam search,在多樣性上有一些提升。業務應用例如生成的Mini文案,在推薦位上也取得了顯著的效果提升。

file

為了支援文案生成能力,我們做了大量的底層工作,包括大規模電商場景下的預訓練模型構建,以及基於NER的商品亮點資訊挖掘等。重點介紹預訓練模型,基於兩億規模的資料進行了預訓練,可以更好地對商品進行表示,用於支援模型優選和各類下游任務。其中改進點有幾個:

  • 第一,在Bert原本的預訓練任務中去除了效果不太好的NSP的任務;
  • 第二,加入了商品自帶的類目資訊;
  • 第三,加入了一些Weak Label,就是一些結構化的資訊作為loss判別。

效果是在下游的NER任務中,以原始的Bert作為baseline,準確度提高了1.5%,達到同樣的一個效果每個類目需要的標註資料量也由原來的10000降低到了6000。

--

04 創意優選&分發

前面簡單提到了優選模型,優選模型要解決什麼問題?

  • 第一是精準匹配的問題
  • 第二是解決長尾和多樣性

如何解決個性化匹配的問題,我們用到的是多模態的優選,因為優選模型可以充分學習商品特徵、使用者特徵和創意特徵之間的交叉,從而學習到使用者對於創意的偏好,解決多樣性,我們採用了一個EE的探索機制的方案。

file

1. 多模態優選模型

為什麼要在電商場景下去做多模態?如上圖,智慧創意本身是一個多模態的場景,基於單一的圖片表示很難對使用者形成完整的資訊傳遞,也就是說模型對於創意資訊的理解是不完整的,比如只看文案,就無法get到商品的外觀資訊,只看圖片也很難get到它的具體賣點。通過兩個模態間的對齊和校準,可以形成模態內容的聯合表示,可以有效實現從創意到使用者完整的資訊傳遞路徑。有兩個關鍵點:

  • 第一是對於模態的對齊和轉換;
  • 第二是如何對模態資訊進行融合和交叉學習,將不同模態的特徵做交叉組合來統一,便於進行後續的訓練。

file

上圖是我們構建的優選模型,在建模的時候,首先考慮的是如何基於使用者的歷史行為建立使用者對於創意的偏好,體現為以下幾點:

  • 第一是傳統的CTR預估模型,只考慮了商品和使用者的特徵,並沒有考慮創意維度的資訊;
  • 第二是要強調對於使用者的資訊傳遞,針對創意包含文案、圖片、背景等多種元素的情況,可以基於多模態特徵建模來實現特徵的統一;
  • 第三是結合歷史的瀏覽和點選資料,去學習使用者個性化的創意偏好,而不是僅僅學習使用者對於商品的偏好。

結構圖左邊是一個簡單的DCN模型,是大家熟悉的Widedeep表示,右邊是加入了Transformer的網路來對於創意特徵進行表徵,然後在此基礎上和原來的資訊做Content。

file

2. 模型的EE能力

優選模型的第二部分體現的是EE能力,EE是指探索(explore)和利用(exploit)。針對創意元素的組合EE模型分為兩部分,第一部分是按照ξ做按比例的探索,被稱為探索流量,探索流量保證了創意元素集的充分曝光。下面1-ξ這部分是按照pCTR預估的方式進行優選,在前面元素充分曝光的基礎上,可以得到更置信的元素的CTR預估,在這個基礎上可以將創意特徵加入優選模型來實現模型到使用者的個性化匹配能力。所以說上面主要是探索的部分,下面主要是效果呈現的部分。

--

05 業務落地

file

最後是業務落地的情況,目前創意內容生成及優選已經線上上進行了長期執行。

第一,我們現在的內容生成和分發已經全面覆蓋了像首焦、搜推、站外等核心廣告位,每天智慧生成的視訊、圖片、文案創意已經超過了數億條,可以觸達千萬級的使用者,並且我們獲得了京東技術金項獎-技術創新獎。

第二,構建了視訊標籤化為基礎的視訊廣告生態,智慧創意在視訊上也影響了大量廣告收入,包含了站內的搜尋、推薦,站外的抖音、快手等,在站外也有大量的廣告投放。

第三,關於效果,以站內的首焦業務為例,我們建立的創意內容和優選體系近一年點選率提升已經超過了30%。

最後是智慧創意的產品化、工具化和平臺化建設,已經全面融入了京東廣告的生態,持續賦能電商業務。

--

06 精彩問答

Q:美學評估具體是怎麼實現的?

A:傳統意義上,大家理解圖片的美醜是通過比較主觀的判別去給一個label標註的。比如一張圖片,A打到八分,B能打到十分,基於多人的打分歸集到一塊,在這個基礎上通過標註資料做分佈的預估來判斷標註的置信度,比如80%的人都認為圖片的美學在五到六分之間,這個資料其實就是我們用於後續訓練的一個資料集。這是關於資料建立的過程,評價體系分為多個方面,一個是Hamony值評估顏色的和諧度,看幾個顏色放在一起是不是協調,得到一個和諧分。其次是基於規則的佈局合理性得分,最後有線上特徵feature的加入,例如可以把CTR的資料引入進來,加入到整體的質量判別中。

Q:文案生成是直接用於投放嗎?如何保證不會出現生成的文案賣點與商品不一致?

A:我們整個內容生成都是直接用於投放的。不管是文案生成或是圖片、視訊生成,可能都會面臨你說的問題,也就是badcase,同時還有商家自己上傳圖片或者填檔案出錯的情況,所以準確率本身是很難去避免的。我們在生成文案時的準確率能達到98%甚至99%,它本身的badcase率很小;其次在這個解決方案,我們會通過線上實時反饋等方式,實現實時的禁播,把這個部分的文案卡掉。

Q:元件化的圖片生成是完全靠UED提供組合規則嗎?

A:元件化的方式生成,我們肯定會把UED同學給引入進來。為什麼要做文字元件這個事情?一是方便我們把圖片序列化分成N個部分,文字元件可以通過智慧佈局的調整,智慧顏色搭配去適應不同的場景。但不是針對每一類創意,都需要UED同學去生成一套模板,這樣效率是非常難以保證的。我們加入智慧搭配,智慧佈局,或者智慧文案形式的調整後,UED只需給到我們一個最簡單的小元件,我們可以把它擴充套件成更多的元件,可以適應更多的文案形式,可以更多在元素之間做佈局,整體上是為了提升方案的多樣性。

Q:對於類似場景分類這樣的應用,標籤體系是業務同學直接提供的,還是由演算法使用了什麼方法來進行歸納總結的?如果是後者,那麼如何權衡使用什麼樣的標籤體系?

A:標籤體系特別複雜,標籤體系cover的角度會比較多,比如說圖片裡,要去判斷圖片的場景,比如說它是在街上還是家裡。這個場景的定義是我們演算法自己去定義的,因為電商場景下有大量的視訊和圖片,我們會在收集這些視訊和圖片內容後,通過標註同學去做場景的標註,然後標註的內容,我們會和相關同學做by case的前期的一些溝通來建立,所以這個過程的前期有非常龐大和繁瑣的工作。

Q:可以詳細介紹一下多模態在精排模型中的應用細節嗎?

A:我們現在做的多模態部分主要是在優選過程中使用,現在還沒有在精排模型中去做。具體原因,對於我們來講,優選模型是對每一個商品,它會選擇一個對於當前使用者最好的創意或者最好的內容。精排模型,它要解決的是怎麼樣去選擇使用者最感興趣的一個SKU,現在我們的思路是這兩個過程並行,就是優選創意內容和優選商品其實是獨立的。我們的實時生成、優選引擎,過程可以控制在20毫秒以內,精排模型本身對耗時的要求也比較高,比如你再增加20毫秒,這會有很大的挑戰,所以這個過程我們更傾向於通過並行的方式去做。

Q:創意優選的離線評估指標是什麼?

A:和精排模型的評估指標一致,我們用AUC去評估它的效果增益,比如加入創意內容的一個特徵後,或者加入文案、圖片的一個embedding資訊後,評估AUC能得到多大的增益。然後在這個基礎上,評估對生意提升超過5‰或者多少,然後我們就會放到線上去做實際的線上ABtest。

Q:請問在商戶選擇上是白盒還是黑盒,能否規模化使用?

A:現在做的是自動化的智慧創意投放場景,對於商家來講其實是無感知的,他們能感知到的就是效果變好了,不知道他選擇了智慧創意。但是後面我們會有一個產品化的思考,就是讓商家去選擇我們的智慧創意,在選擇使用後看到效果變好。目前對於大多數的商家來講,它是無感知的,是在純智慧投放的一個場景下,自動選擇商品,自動選擇使用者進行匹配的全智慧的pipeline。但是該能力主要覆蓋的是中小商家,對於頭部KA商家,他們有足夠的素材製作能力,所以對於他們主要使用的是其中創意分發的能力。

Q:創意優選和分發做到創意維度,這麼大量的創意如何有足夠的流量意義?用了EE的方法,那麼ξ是如何選取的?如果意義流量足夠了,是否能把ξ設定為零?

A:創意的特徵和商品的特徵其實有很大差異。創意特徵,比如一個商品裡面有特別多的賣點,它有特別多的圖片,比如一個相機,它的正面或者背面,要展現的內容包含它的攝像效果、顏值等等,針對這些資訊,怎麼保證每一個效果的充分展現和置信度?我們要按照ξ去進行展示,但這個展示保留了比如說10%或者20%,是為了保證有效展現,但是我們即使在這個模型預估完成以後,也不會把ξ系統調整為零,因為創意優選的過程中,創意和商品的資訊會變化,這是從商品層面去看,它會有更新,然後從使用者層面看,其實也會有創意衰減的問題,比如每個人都有不同的喜好,而且比如我今天喜歡看綠色的創意,明天也會審美疲勞。所以探索就是要匹配使用者的興趣度變化,去不斷迭代探索。所以EE探索是一個長期的過程,它是和CTR預估分支一起發生作用的。

Q:做創意優選的目的是什麼,實際的線上效果如何?

A:做優選的核心目的肯定是提升創意的效果,通過和使用者喜好的匹配來實現這種個性化也就是千人千面的對比對映,最終能夠體現給商家看到的就是點選率,或者轉化效果的提升。對於使用者則是看到的他比較喜歡的創意展現,提升他對於這個平臺的喜好,他覺得推給他的很好,他會在這個平臺上花更多時間去看去逛,這會提升平臺整體的使用者活躍度,或者是使用者停留時長。所以我們通過創意生態要構建這兩方面的目的,一個是對於商家的,一個是對於使用者的。


今天的分享就到這裡,謝謝大家。


分享嘉賓:

file

本文首發於微信公眾號“DataFunTalk”。

相關文章