深度 | 線下場景的客流數字化探索與應用
阿里妹導讀:數字化的時代,無論是商場裡的大小專櫃,還是小區門口的便利店,大多仍處於“資料荒漠”中。店家不知道店內多少商品被人瀏覽,多少衣服被試穿了,作為顧客的我們也不知道哪些商品是最受同齡人喜愛的暢銷好物。
在新零售場景中,線下的行為資料是潛藏的寶礦。如何進行數字化升級,更好輔佐商家和消費者,成為擺在我們眼前的重要課題。
下面,搜尋事業部的演算法專家京五將為大家詳細介紹阿里線上下場景的客流數字化探索與應用。
在網際網路時代,資料是所有應用的基礎,淘寶的商家可以基於商品歷史的點選成交量來判斷店內各個商品的情況,並做出相應的運營行為,淘寶的買家會根據商品歷史的成交資料,評論資料等,來輔助自己判斷是否進行購買,同時我們平臺也會基於使用者和商品的歷史資料,來訓練模型,預測各個商品的點選率,預測各個使用者的偏好,使展示的結果更符合使用者的需求。可以看出,資料對於各個不同的角色都有很重要的作用。
在網際網路中,獲取資料相對容易,反觀線下零售場景,大部分資料都是缺失的,商家並不知道店內多少商品被瀏覽了,多少商品被試穿了,買家也不知道各件商品的歷史資料。
因此,我們的客流數字化相關的探索,就是要將線下的使用者和商品的行為資料收集起來,讓線下的行為也能有跡可循,為商業決策和市場運營提供準確有效的資料支撐,將傳統零售中的導購經驗逐漸數字化成可量化和統計的數字指標,能夠輔助商家運營,同時幫助使用者進行決策。基於這些資料,也能夠讓演算法線上下發揮更大的作用。
整體方案
整體方案如下圖所示,方案涉及場外的選品策略指導,線下引流,進店的人群畫像,顧客軌跡跟蹤,人貨互動資料沉澱,試衣鏡互動/推薦,以及離店後的線上二次觸達。從場外到場內再到線上,構成了整體全流程的產品方案。
客流數字化探索
在門店客流數字化的探索中,硬體部署上,我們使用了門店已有的監控攝像頭和RFID標籤,並結合視覺及射頻相關技術,通過在門店部署GPU終端進行計算。技術方案上,我們基於人臉識別技術,識別進店使用者的性別,年齡,新老客等基礎屬性,並通過行人檢測跟蹤與跨攝像頭的行人重識別技術跟蹤使用者在門店內的動線變化,同時得到整體門店各個區域的熱力圖分佈,此外,還通過攝像頭與RFID 多感測器融合的技術識別使用者在門店內的行為,包括翻動,試穿等,精確定位門店內各個商品的瀏覽與試穿頻次以及使用者線上下的偏好。下面會主要介紹其中的行人檢測,行人重識別和動作識別這3個技術方向相關的優化。
行人檢測
在新零售的客流數字化場景中,我們需要通過監控攝像頭對門店客流的進店頻次、性別、動作、行為軌跡、停留時間等全面的記錄和分析。要達到我們的目標,首先需要能夠檢測並識別出攝像頭中的行人。
雖然目前YOLO等目標檢測演算法可以做到近乎實時的計算效能,但其評估環境都是Titan X、M40等高效能GPU,且只能支援單路輸入。無論從硬體成本或是計算能力方面考慮,這些演算法都無法直接應用到真實場景中。當然YOLO官方也提供了像YOLOv3-Tiny這種輕量級的模型方案,但模型效能衰減過大,在COCO上mAP下降超過40%。同時現有目標檢測方案的泛化能力還比較弱,不同場景的差異對模型效能會造成較大的影響。門店場景下的視角、光線、遮擋、相似物體干擾等情況與開源資料集差異較大,直接使用基於VOC、COCO資料集訓練的模型對該場景進行檢查,效果非常不理想。我們分別針對模型的效能和在實際資料集的效果兩方面做了相應的優化。
網路結構精簡與優化
我們在YOLO框架的基礎上對模型進行改進,實現了一種輕量級實時目標檢測演算法,在服飾門店的真實場景下,和YOLOv3相比,模型效能下降不超過2%,模型大小縮小至原來的1/10,在Tesla P4上對比FPS提升268%,可直接部署到手機、晶片等邊緣裝置上,真實業務場景中一臺GTX1070可以同時支援16路攝像機同時檢測,有效節約了門店改造的經濟成本。
標準YOLOv3的網路結構有106層,模型大小有237M,為了設計一個輕量級的目標檢測系統,我們使用Tiny DarkNet來作為骨幹網路,Tiny DarkNet是一個極簡的網路結構,最大通道數為512,模型大小僅4M,該模型結構比YOLO官方的YOLOv3-Tiny的骨幹網路還要精簡,但精簡網路會造成特徵抽取能力的衰減,模型效能下降劇烈,在我們人工標註的2萬多張服飾門店場景資料集上,替換後的Tiny DarkNet + FPN接面構較原生結構的AP-50(IOU=0.5)下降30%。我們在特徵抽取網路之後進行Spatial Pyramid Pooling[10],與原特徵一起聚合,之後通過下采樣與反摺積操作將不同層級特徵合併,希望將底層的畫素特徵和高層的語義特徵進行更充分的融合來彌補特徵抽取能力的下降,整體網路結構如下圖所示,精簡後的檢測模型大小約為原來的1/10。
目標檢測網路結構
知識蒸餾進一步優化
知識蒸餾[2]通過Teacher Network輸出的Soft Target來監督Student Network學習網路中Dark Knowledge,以實現Knowledge Transfer的目的,與量化、剪枝、矩陣近似等方法常被用來實現對模型的壓縮。但蒸餾與量化等方法之間又是可以互相結合的,而且蒸餾本身對模型的修改更加透明,無需特殊的依賴及執行框架。
知識蒸餾網路結構
上圖是我們網路蒸餾的模型結構設計,蒸餾時我們採用原生YOLOv3作為Teacher Network,雖然YOLOv3擁有較好的檢測效能,且結構上與我們的模型比較相似,但直接在二者輸出層之間建立L2約束,無法克服Teacher Network中的噪聲及迴歸預測的波動,結果反而抑制了Student Network的學習。實驗中發現Hint Layer的損失設計和迴歸預測的不確定性是蒸餾效果的核心問題,強行在對應Channel之間建立損失約束的方式過於嚴苛。對於普通卷積而言,我們無需要求Teacher / Student Network的Input Channel順序保持一致,僅需要整個輸入的分佈是一致的。每個Channel相當於一次取樣結果,相同的分佈,採出的樣本順序可能多種多樣,但整體結果符合相同分佈,同時經過啟用函式的Channel分佈不再穩定,需要進行歸一處理。為了避免Teacher Network迴歸預測本身的不穩定,迴歸損失設計時仍以Ground Truth為目標,將Teacher Network的Output作為Bound,僅對誤差大於Teacher Network的部分進行約束,本質上是在借Teacher Network來進行Online Hard Example Mining。
行人重識別
行人重識別(Person Re-identification)問題是指在跨攝像頭場景下,給定待查詢的行人圖片,查詢在其他攝像頭是否出現該人。一般用來解決跨攝像頭追蹤。線上下門店場景中,每個門店都會在各個不同的區域安裝攝像頭,當顧客在店內逛時,我們需要了解使用者是如何在各個區域之間活動,瞭解各個區域客流的去向與來源,因此需要將各個不同攝像頭中同一個行人進行關聯。
行人特徵提取
行人重識別的難點在於,多個攝像頭下拍攝行人的角度不同,影像中的行人可能72變,同時還有可能會有不同程度的遮擋,導致直接使用整體的行人特徵來做重識別非常具有挑戰性,那能不能用人臉識別做行人重識別?理論上是可以的,但是在實際場景中非常難應用,首先,廣泛存在後腦勺和側臉的情況,做正臉的人臉識別難,其次,攝像頭拍攝的畫素可能不高,尤其是遠景攝像頭裡麵人臉截出來很可能都沒有32x32的畫素。所以人臉識別在實際的重識別應用中存在很大的限制。
行人重識別問題中,如何學得一個魯棒的行人特徵表示成為了一個很關鍵的問題。學得行人特徵表示最直觀的方式是直接以整張行人圖片作為輸入,提取一個全域性特徵,全域性特徵的目標是學到能夠區分不同行人之間最突出的資訊,比如衣服顏色等,來區分這個行人。然而監控場景的複雜性,使得這樣的方法的準確性受到了很大的限制,比如,各個攝像頭之間存在色差,並且門店的不同區域的光照條件會有差異,此外,還有很多穿相似服裝的行人。同時由於目前行人重識別資料集在體量及豐富性上有比較大的欠缺,一些不突出,不頻繁出現的細節特徵在全域性特徵的訓練中很容易被忽略。
要解決上面提到的問題,使用區域性特徵替換全域性特徵是一個比較好的解決方案,基於區域性特徵的行人重識別方法將原始輸入表示成多個特徵塊,每一個特徵塊代表一個區域性的特徵,基於區域性特徵的方法能夠更關注行人的區域性細節方面的特徵。
基於區域性特徵的方法,也存在一些問題,這一類方法將行人劃分為各個獨立的語義分塊,並沒有考慮各個區域性特徵之間的關聯,因此,在我們的方案中,我們使用到了多級區域性特徵的融合方案,在考慮各個區域性特徵的同時考慮多個區域性特徵的關聯關係,具體網路結構如下圖所示,在原始的區域性特徵的基礎之上增加了多個不同尺度的區域性特徵以及全域性特徵,學到的特徵不僅能夠表示各個部位的細節特徵,還能表達不同部位融合在一起的特徵,相較原始版本更加豐富化。
目前基於此版本模型還在持續優化中,在Market資料集上Rank@1能達到96.19%,使用同樣骨幹網路結構的情況下提取全域性特徵的版本的Rank@1只能達到89.9%,而僅使用local特徵的版本Rank@1能夠達到92.5%,融合的方案相比兩個版本均有較明顯的提升。
跨資料集的行人重識別的探索與嘗試
由於線下場景的特殊性,我們的模型需要部署到各家不同的門店,各個門店的光線,環境存在很大的差異,不同門店的攝像頭安裝的角度也會有些許不同,因此我們在一個資料集上訓練的模型可能並不適用於所有門店,然而我們又不可能逐家門店去做資料的標註,因此,我們想通過一種方式,讓我們的模型能夠自適應到新的門店的資料中。
在門店中,由於顧客是在一個封閉空間,因此顧客在各個攝像頭之間的轉移是存在一定的規律的,比如說:顧客肯定是最先出現在門口的攝像頭,顧客只能在相鄰的兩個區域之間進行轉移等,基於門店場景的特性,我們首先嚐試了基於攝像頭時空資訊的混合模型,參考[7],模型結構如下圖所示:
混合模型首先基於原始的視覺特徵的分類器來計算各個攝像頭以及不同時間間隔之間轉移的概率分佈,再使用時空資訊與原始分類器結合得到最終的結果。
人貨動作檢測
除了基礎的客流動線資料以外,顧客在門店中的行為資料也是非常有價值的,我們嘗試使用視覺結合RFID射頻訊號的融合方案,試圖解決顧客在門店中與貨物的互動問題,即哪個顧客在什麼地點翻動/拿起了哪一件商品,比較類似線上的點選資料。
人貨互動的資料線上下是很重要的一個環節,人貨互動的資料可以讓商家知道哪些商品被翻動的多,瞭解哪些商品比較能夠吸引顧客,哪一類顧客更喜歡哪些風格的商品,同時這一部分資料也完善了整個門店的漏斗轉化,以前商家僅僅能根據成交來判定每個商品的受歡迎程度,而有些潛在暢銷款可能是由於擺放的位置不恰當,導致可能根本沒有顧客仔細看到,導致最終成交額較低,同時有的商品雖然成交筆數不少,但是實際上被顧客拿起的次數也特別多,可能是因為這件商品在一個更顯眼的位置,相比同樣成交筆數的拿起次數較少的商品,實際轉化率更低。補全這個環節的資料對商家的線下運營有很關鍵的作用,同時這一部分行為資料在商家線上線下商品打通之後為線上服務起到最重要的作用。
人貨互動的資料是目前線下資料缺失的比較嚴重的環節,商家一般都能很容易的拿到商品的成交的統計資料,而人貨互動的資料由於發生更頻繁,且不易判斷,因此整體資料的收集難度比較高,此外人貨互動的資料需要精確到具體的SKU,單純的顧客發生了動作並沒有太大的意義,因此在人貨動作檢測的方案上,我們設計了一套結合視覺技術和RFID射頻訊號的融合方案,得到最終的人貨互動資料。下圖為整體方案:
門店中裝配有監控攝像機裝置與RFID接收器器裝置,分別錄製實時視訊與RFID標籤受激反射的 時序訊號,首先基於回傳的RFID訊號與檢測哪些RFID標籤可能被翻動了,由於店鋪服務員已經將RFID標籤的EPC編號與商品的 SKU編號關聯入庫,基於被翻動的標籤EPC編號可以取到對應商品的SKU,同時,使用回傳的顧客圖片檢測出疑似有在翻動商品的顧客,並根據顧客的影像座標進行座標變換,得到該顧客的真實物理座標,最後,將檢測出的疑似被翻動的商品與疑似有翻動商品動作的顧客進行關聯,得到商品與行人的最佳匹配。
其中基於RFID射頻技術的商品動作識別是一個比較新的嘗試。當顧客翻動衣服時,衣服上的RFID標籤會隨之發生微小抖動,RFID接收機裝置記錄標籤反射的訊號RSSI,Phase等特徵值的變化,回傳到後臺,演算法通過對每個天線回傳的訊號值進行分析判斷商品是否發生翻動。基於RFID訊號判斷商品翻動存在諸多問題,包括訊號自身噪聲、環境多徑效應、偶然電磁噪聲、貨櫃對訊號遮擋的影響等。同時RFID反射訊號的大小與接收器離標籤距離遠近存在非線性關係,
其中,d代表RFID標籤與接收器之間距離, ,受Multipath和當前環境的影響,表示各種靜態裝置誤差帶來的偏移。從公式中可以看出,接收器安裝的位置,商店環境等都會給RFID訊號帶來很大影響,尋找統一的可以適用於不同商店、不同位置接收器的翻動判斷演算法存在很大挑戰。最初的版本我們使用RSSI和Phase的原始值作為特徵值來訓練模型,這樣的模型存在一個問題,在我們的樣本不充足的情況下,受環境的影響較大,在真實環境中往往不能達到離線測試的結果,因此,我們試圖基於原始的訊號值產生於空間位置不那麼強相關的特徵值來輔助動作的判斷。
雖然頻率資訊中的幅度資訊與空間位置存在關係,但是當我們只關注於頻率分佈(不同頻率成份的佔比)時,可以將頻率資訊也當成與空間位置資訊無關的特徵。頻率資訊的獲取需要對RSSI訊號與Phase訊號進行離散傅利葉變換, 然後統計頻率訊號與相位訊號的分佈圖。對得到的分佈圖,計算當前分佈與前一個時刻分佈的JS散度(相對於KL散度,JS散度具有加法的對稱性,因此可以用來衡量多個分佈之間的相對距離)。
基於相鄰時刻前後兩個樣本的JS散差異的版本在我們的測試資料上能夠達到94%的識別精度,相比最初版本基於原始的RSSI值和phase值作為特徵的版本的91.9%的精度,有一定的提升。
基於影像的顧客動作檢測是經典的分類問題,為了減小對計算能力的需求,我們使用了:MobileNet[12]對行人檢測的影像進一步分類,並根據模型Logits輸出進行了最優化引數尋優,在保持分類精度時,提高正例召回率,確保正例儘可能被召回,如下圖所示。
我們通過時間關聯程度與動作可疑程度兩個維度同時進行匹配,使得最終的匹配行人與翻動商品的準確率達到85.8%。
客流數字化應用
客流數字化產出的客流相關資料不僅僅用於商家的線下運營,同時我們也基於這部分資料線上下場的流量分發上有一些初步應用,淘寶是線上的一個很大的流量分發的入口,淘寶的搜尋和推薦決定了消費者當前能看到哪些商品,也同時影響了各個商家和商品的整體流量情況,搜尋和推薦就是將商家、商品和使用者做匹配,將適當的商品展示給合適的使用者,滿足消費者的購物體驗的同時,也平衡各個商家商品的流量分配,避免流量的浪費,實現流量的最大化的價值。
線上下商場,也有一樣的流量分發的需求。但是線下場相比線上,有兩個比較大的挑戰:1) 線下目前沒有統一的入口,類似線上的搜尋和推薦應用,無法觸達到使用者;2) 線下沒有類似線上豐富的日誌和行為資料,沒有資料支撐比較難做到精準的個性化,無法優化效果。
線上下場的流量分發的探索中,我們使用商場已有的互動螢幕、門店的互動螢幕作為流量分發的出口,同時,利用前文提到的客流數字化沉澱的資料來支撐線下場的個性化流量分發。
場外引流屏
場外引流屏的作用,是進行第一級的流量分發,首先需要通過不同的互動玩法,營銷活動吸引使用者,再通過螢幕對使用者進行個性化的優惠券投放,引導使用者進入不同的門店。
在傳統商場中,使用者剛進來商場,可能會隨機地在這個樓層進行活動,當看到感興趣的品牌完成進店的活動,或者使用者會基於導覽屏,大概瞭解商場樓層的品牌分佈情況,再進行有一定針對性的瀏覽。而我們的引流屏的作用是將合適的優惠推薦給對應的人,從而引導使用者進店,相當於在商場中島進行整體的流量分發,將集中在中島的使用者往各個不同的方向進行引導。整體方案如下圖所示:
整體方案依賴三部分的資料,分別是基於使用者的影像特徵產出的人群屬性資料,以及各個店鋪的進店人群分佈資料和店鋪的其他統計量的特徵,基於使用者當前的屬性特徵與店鋪的人群分佈進行匹配,可以得到初步的個性化的店鋪推薦結果,此外,使用店鋪本身的統計量特徵作為輔助資訊,在同等匹配條件下額外考慮各個店鋪本身的熱度,效率等維度特徵,以及當前所提供的優惠券的力度資訊,得到最終的優惠券的排序,並展示給使用者。
場內試衣屏
場內試衣屏的作用是做第二層的流量分發,即使用者進店後,需要推薦哪些商品展示給使用者。在傳統的門店中,使用者進店後會在店內進行隨機的瀏覽,對於感興趣的衣服會找導購員提供試穿,試穿後導購員也會對顧客進行推薦。整個過程中存在一些問題,首先,使用者對於商品的瀏覽和商品擺放的位置關係很大,櫥窗的商品會更容易吸引使用者注意,而部分較密集的衣架區,使用者可能沒有辦法注意到部分貨品;其次,試穿之後導購進行的推薦也會因人而異,和導購本身的素質關係也較大,有些經驗豐富的導購員可以根據你個人的長相氣質推薦更適合你的商品,而更多的導購員只能簡單的基於當前的熱銷款來進行推薦,無法做到因人而異。
試衣屏推薦要解決的就是上述的兩個問題,整體展現形式如下圖:
在使用者進行試穿時,會在鏡子側方顯示商品的詳情資訊,包括目前商品是否有折扣等,同時會基於使用者的試穿行為,推薦相關商品與搭配商品,給部分商品一次額外的展示機會,同時也能夠基於使用者的試穿以及使用者當前的影像特徵給出個性化的推薦結果,方便使用者的選購,即使使用者暫時沒有這個消費習慣,鏡子螢幕上的推薦結果也能對導購員進行一些輔助決策,能夠幫助導購員給使用者推薦更加個性化更加豐富的商品。
整體演算法方案如下圖所示:
考慮到隱私問題,在我們的應用中,我們不去嘗試通過人臉關聯到對應的id,僅在場內通過使用者的行為和其他使用者行為的相似性進行推薦。
工程實現
AI inference是GPU終端計算重要的一環,最開始探索的時候,AI inference採用序列模式:
通過觀察測試資料,我們驚訝地發現,雖然程式已經處於視訊流圖片處理飽和的狀態,但是6核心CPU的使用率才到150%,GPU的使用率才到30%,也就是說,超過一半的硬體資源處於閒置狀態。 為了使得原本間歇性閒置的資源得到重新的利用,我們改造成了流水線模式,結構圖如下所示:
在多程式實現的流水線方案中,由於每個程式的資料都是相互獨立的,一個程式產生或修改的資料對另一個程式而言它是無感知。如何提高程式間的資料傳遞是能否高效實現併發的關鍵點。 我們採用了基於mmap ctypes實現的共享記憶體,對比管道、socket多程式通訊機制,共享記憶體在多程式資料通訊方案中是非常高效和靈活,參考multiprocessing Value的解決方案,使用ctypes內建的基本資料結構來實現我們的資料模型,非常方便的進行記憶體切分並轉換成可用的資料結構。
結合業務情況,我們的流水線工作模式會將各個階段分割為子任務,我們還設計了圖片共享佇列,整個過程只需要寫入一次圖片資料,各個階段只需要從這個共享佇列讀取圖片即可,等所有流程都操作完之後再從圖片佇列刪除這個圖片資料,這樣就能保證圖片操作的正確性和高效性。通過測試發現,我們實現的共享記憶體佇列在讀取資料上比pipe方式快了300多倍。
業務效果
目前我們客流數字化的資料已經沉澱到相應的產品,以下是基礎客流的示意圖,品牌商可以看到門店每日的基礎客流量以及分時段的客流情況,瞭解各個門店當前的經營狀況。
下圖為區域熱力圖和區域動線圖,區域熱力圖展示了門店在一天內各個小時各個區域的人流量密度情況,我們將各個不同攝像頭的資料進行整合,最終對映到門店的平面CAD圖上展示區域熱力,讓門店能夠更直觀的看到各個區域的熱度,區域動線圖展示了各個區域客流的去向和來源的佔比,基於區域熱力和動線資料,商家能夠清晰的瞭解到門店各個區域的密度情況以及各個區域之間顧客的轉移情況,目前合作的品牌商也會基於區域的資料對店內的陳列做適當的調整,甚至有門店基於動線的資料重新調整整個門店的區域分佈情況。
下圖為門店進店客流的人群畫像,展示了門店每天進店客流的性別和年齡的分佈,商家會基於進店的人群畫像資料與當前品牌的目標人群進行對比,並基於實際進店客流的分佈調整門店陳列商品的品類結構以及不同型別商品的佔比。
參考文獻:
[1] Redmon J, Farhadi A. Yolov3: An incremental improvement[J]. arXiv preprint arXiv:1804.02767, 2018.
[2] Hinton G, Vinyals O, Dean J. Distilling knowledge in a neural network. In Deep Learning and Repre-sentation Learning Workshop, NIPS, 2014.
[3] Romero A, Ballas N, Kahou S E, et al. Fitnets: Hints for thin deep nets[J]. arXiv preprint arXiv:1412.6550, 2014.
[4] Chen G, Choi W, Yu X, et al. Learning efficient object detection models with knowledge distillation[C]//Advances in Neural Information Processing Systems. 2017: 742-751.
[5] Yifan Sun, Liang Zheng, Yi Yang, Qi Tian, Shengjin Wang. Beyond Part Models: Person Retrieval with Refined Part Pooling
[6] Wei Li, Xiatian Zhu, Shaogang Gong.Person Re-Identification by Deep Joint Learning of Multi-Loss Classification, IJCAI 2017
[7] Jianming Lv, Weihang Chen, Qing Li, Can Yang. Unsupervised Cross-dataset Person Re-identification by Transfer Learning of Spatial-Temporal Patterns, CVPR 2018
[8]Liang Zheng ; Liyue Shen ; Lu Tian ; Shengjin Wang ; Jingdong Wang ; Qi Tian. Scalable Person Re-identification: A Benchmark, ICCV 2015
[9] Guanshuo Wang, Yufeng Yuan, Xiong Chen, Jiwei Li, Xi Zhou.Learning Discriminative Features with Multiple Granularities for Person Re-Identification, MM 2018
[10] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 8759-8768.
[11]Tianci Liu ; Lei Yang ; Xiang-Yang Li ; Huaiyi Huang ; Yunhao Liu,TagBooth: Deep shopping data acquisition powered by RFID tags. INFOCOM 2015
[12]https://github.com/tensorflow/models/blob/master/research/slim/nets/mobilenet_v1.md
你可能還喜歡
點選下方圖片即可閱讀
阿里2018成績單出爐;達摩院釋出十大科技趨勢;Fusion Design 正式開源 | 周博通
關注「阿里技術」
把握前沿技術脈搏
相關文章
- 數字貨幣管理創新實驗:探索應用場景與未來機遇
- 圖技術在美團外賣下的場景化應用及探索
- 與機器人索菲亞合作,iTutorGroup探索AI在教育場景的深度應用機器人AI
- 維塔士:希望發揮遊戲技術專長 探索更多數字化應用場景遊戲
- 互動式推薦在外賣場景的探索與應用
- 數字對映:數字孿生技術的應用場景及作用
- 釘釘協同引擎與應用場景技術探索
- 深度模型DNN在個性化推薦場景中的應用模型DNN
- BFC的概念與應用場景
- 數字沙盤的四大應用場景分析介紹
- 數字化轉型辦公室的運用場景有哪些?
- Flutter 在流式場景下的架構設計與應用Flutter架構
- 解鎖「SOAR」在不同場景下的應用與實踐
- 數字化場景中的「員工旅程」重塑
- 醫療線上OLAP場景下基於Apache Hudi 模式演變的改造與應用Apache模式
- 詳解數倉中sequence的應用場景及最佳化
- 影片直播場景下物件儲存的應用物件
- Numpy的應用場景
- FRAM的應用場景
- 電商交易場景狀態機方案探索及應用
- Redis的資料結構與應用場景Redis資料結構
- 數字孿生在能源電力行業的技術難點和應用場景行業
- PWA的探索與應用
- 私有化場景下大規模雲原生應用的交付實踐
- 影片場景下的自然語言處理應用自然語言處理
- SAP BTP MTA 應用的應用場景
- 淘特 Flutter 流式場景的深度優化Flutter優化
- 聲網許振明:RTC 場景 UHD 影片應用和探索
- 理解 Fragment 的應用場景Fragment
- LINQ SelectMany的應用場景
- 3.4 應用場景
- DDD應用場景
- ES 應用場景
- snapshot應用場景
- Zookeeper應用場景
- Node.js 子程式與應用場景Node.js
- Flink基本原理與應用場景
- 美團多場景建模的探索與實踐