圖嵌入綜述(arxiv1709.07604)譯文4.3~4.7
原文:A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications (arxiv 1709.07604)
譯者:飛龍
自豪地採用谷歌翻譯
基於邊重構的優化問題
總體見解: 基於節點嵌入建立的邊應儘可能與輸入圖中的邊相似。
第三類圖嵌入技術通過最大化邊重建概率,或最小化邊重建損失,來直接優化基於邊重建的目標函式。 後者進一步分為基於距離的損失和基於邊距的排名損失。 接下來,我們逐一介紹這三種型別。
最大化邊重建概率
見解: 良好的節點嵌入最大化了在圖中觀察到的邊的生成概率。
良好的節點嵌入應該能夠重新建立原始輸入圖中的邊。 這可以通過使用節點嵌入最大化所有觀察到的邊(即,節點成對接近)的生成概率來實現。
節點對 和 之間的直接邊,表示它們的一階鄰近度 ,可以使用嵌入來計算 和 的聯合概率:
(13)
上述一階鄰近度存在於圖中的任何一對連線節點之間。 為了學習嵌入,我們最大化了在圖中觀察這些鄰域的對數似然。 然後將目標函式定義為:
(14)
同樣, 和 的二階鄰近度是條件概率 由 使用 和 生成:
(15)
它可以被解釋為在圖中隨機遊走的概率,它開始於 結束於 。 因此圖嵌入目標函式是:
(16)
其中 是從圖中取樣的路徑中, 的集合。即來自每個取樣路徑的兩個端節點。 這模擬了二階鄰近度,作為從 到 的隨機遊走的概率。
最小化基於距離的損失
見解: 基於節點嵌入計算的節點鄰近度,應儘可能接近基於觀察到的邊計算的節點鄰近度。
具體來說,可以基於節點嵌入來計算節點鄰近度,或者可以基於觀察到的邊憑經驗計算節點鄰近度。 最小化兩種型別的鄰近度之間的差異,保持了相應的鄰近度。
對於一階鄰近度,可以使用公式 13 中定義的節點嵌入來計算它。 經驗概率是 ,其中 是邊 的權重。 和 兩者之間的距離越小,就能保持更好的一階鄰近度。 使用KL-散度作為距離函式來計算 和 間的差異,並且省略了一些常量,在圖嵌入中保留一階鄰近度的目標函式是:
(17)
同樣, 和 的二階鄰近度是由節點 生成的條件概率 (公式 15)。 的經驗概率計算為 ,其中 是節點的出度(無向圖的情況中是度) 。與公式 10 相似,計算公式 15 非常昂貴。 再次將負取樣用於近似計算來提高效率。 通過最小化 和 之間的 KL 差異,保持二階鄰近度的目標函式是:
(18)
**表8:**基於邊重建的圖嵌入。 是指公式 14,16~19 之一。例如 , (word-label)是指 公式 18,帶有單詞節點和標籤節點。 表示節點 的型別。
GE演算法 | 目標 | 鄰近度階數 |
---|---|---|
PALE [18] | (節點,節點) | 1 |
NRCL [4] | (節點,鄰居節點)+ (屬性損失) | |
PTE [124] | (單詞,單詞)+ (單詞,文件)+ (單詞,標籤) | |
APP [3] | (節點,節點)) | |
GraphEmbed [83] | (單詞,單詞)+ (單詞,時間)+ (單詞,位置)+ (時間,地點)+ (位置,位置)+ (時間,時間) | 2 |
[41,42] | (車站,公司), (車站,角色), (目的地,出發地) | |
PLE [84] | (提示,型別)+ (提示,特性)+ (型別,型別) | |
IONE [26] | (節點,節點)+ (錨對齊) | |
HEBE [45] | (節點,超邊中的其他節點) | |
GAKE [38] | (節點,鄰居上下文)+ (節點,路徑上下文)+ (節點,邊上下文) | |
CSIF [64] | (使用者對,擴散內容) | |
ESR [69] | (實體,作者)+ (實體,實體)+ (實體,單詞)+ (實體,場地) | |
LINE [27] | (節點,節點)+ (節點,節點)) | |
EBPR [71] | (AUC 排名)+ (節點,節點)+ (節點,節點上下文) | 1 和 2 |
[94] | (問題,答案) | 1,2 和 更高 |
最小化基於邊距的排名損失
在基於邊距的排名損失優化中,輸入圖的邊指代節點對之間的相關性。 圖中的一些節點通常與一組相關節點相關聯。 例如,在cQA網站中,一組答案被標記為與給定問題相關。 對損失的見解是直截了當的。
見解: 節點的嵌入更類似於相關節點的嵌入,而不是任何其他不相關節點的嵌入。
表示節點 和 的相似性得分, 表示與 相關的節點集, 表示不相關的節點集。 基於邊距的排名損失定義為:
(19)
其中 是邊距。 減少損失排名,可以促進 和 之間的巨大邊距,從而保證 的嵌入更接近其相關節點而不是任何其他不相關節點。
在表 8 中 ,我們基於其目標函式和保留的節點鄰近度,總結了基於邊重建的現有圖嵌入方法。 通常,大多數方法使用上述目標函式之一(公式 14,16~19)。 [71]優化 AUC 排名損失,這是基於邊距的排名損失的替代損失(公式 19 )。 請注意,當在圖嵌入期間同時優化另一個任務時,該任務特定的目標將被納入總體目標中。 例如,[26]旨在對齊兩個圖。 因此,網路對齊的目標函式與 (公式 18)一起優化。
值得注意的是,大多數現有知識圖嵌入方法選擇優化基於邊距的排名損失。 回想一下知識圖 由三元組 組成,表示頭部實體 通過關係 連結到尾部實體 。 嵌入 可以解釋為,保留真正三元組的排名 ,優於 中不存在的假的三元組 。 特別是在知識圖嵌入中,類似於公式 19 的 ,能量函式 為三元組 而設計。 這兩個函式之間略有不同。 表示節點嵌入 和 之間的相似性得分,而 是嵌入 和 在關係 方面的距離得分。 的一個例子是 ,其中關係表示為嵌入空間中的變換 [91]。 的其他選項總結在表 9 中。 因此,對於知識圖嵌入,公式 19 變為:
(20)
其中 是輸入知識圖中的三元組。 現有的知識圖嵌入方法主要是在他們的工作中優化公式 20。它們之間的區別在於 的定義,如表 9 所示。 知識圖嵌入相關工作的更多細節,已在 [13] 中進行了詳細的回顧。
**表9:**使用基於邊距的排名損失的知識圖嵌入。
GE演算法 | 能量函式 |
---|---|
TransE [91] | |
TKRL [53] | |
TransR [15] | |
CTransR [15] | |
TransH [14] | |
SePLi [39] | |
TransD [125] | |
TranSparse [126] | |
m-TransH [127] | |
DKRL [128] | |
ManifoldE [129] | 球面: |
超平面: | |
是希爾伯特空間的對映函式 | |
TransA [130] | |
puTransE [43] | |
KGE-LDA [60] | |
SE [90] | |
SME [92]線性 | |
SME [92]雙線性 | |
SSP [59] | , |
NTN [131] | |
HOLE [132] | ,其中 是環形相關度 |
MTransE [133] |
請注意,一些研究聯合優化排名損失(公式式20 )和其他目標來保留更多資訊。 例如,SSP [59]使用公式 20 聯合優化了主題模型的丟失,將文字節點描述用於嵌入。 [133]對單語關係進行分類,並使用線性變換來學習實體和關係的跨語言對齊。 還存在一些工作,為三元組 定義匹配度分數而不是能量函式。 例如,[134]定義了雙線性分數函式 它增加了常態約束和交換約束,在嵌入之間加入類比結構。 ComplEx [135]將嵌入擴充套件到複數域並將 的實部定義為得分。
總結:基於邊重建的優化適用於大多數圖嵌入設定。 據我們所知,只有非關係資料(第 3.1.4 節)和整圖嵌入(第 3.2.4 節)尚未嘗試過。 原因是重建手動構造的邊不像其他圖那樣直觀。 此外,由於該技術側重於直接觀察到的區域性邊,因此不適合於整圖嵌入。
圖核
見解: 整個圖結構可以表示為一個向量,包含從中分解的基本子結構的數量。
圖核是 R-convolution 核的一個例項[136],它是定義離散複合物件上的核的通用方法,通過遞迴地將結構化物件分解為“原子”子結構,並比較它們的所有對[93]。 圖核將每個圖示為向量,並且使用兩個向量的內積來比較兩個圖。 圖核中通常定義了三種型別的“原子”子結構。
Graphlet。graphlet 是一個大小為 K 的感應的和非同構子圖 [93]。 假設圖 被分解為一組 graphlet 。然後 嵌入為標準化計數的d
維向量(表示為 )。 該 的維度 是 中 Graphlet 的出現頻率。
子樹模式。 在此核中,圖被分解為其子樹模式。 一個例子是 Weisfeiler-Lehman 子樹[49]。 特別是,在標記圖(即,具有離散節點標籤的圖)上進行重新標記的迭代過程。 在每次迭代中,基於節點及其鄰居的標籤生成多集標籤。 新生成的多集標籤是一個壓縮標籤,表示子樹模式,然後用於下一次迭代。 基於圖同構的 Weisfeiler-Lehman 檢驗,計算圖中標籤的出現等同於計算相應的子樹結構。 假設 在圖上執行重新標記的迭代 。 它的嵌入 包含 塊。 該 中的維度 第一塊 是頻率 -th標籤被分配給一個節點 第二次迭代。
隨機遊走 。 在第三種型別的圖核中,圖被分解為隨機遊走或路徑,並表示為隨機遊走的出現次數[137]或其中的路徑[138]。 以路徑為例,假設圖 被分解成 個最短路徑。將第i
個路徑表示為三元組 ,其中 和 是起始節點和結束節點的標籤, 是路徑的長度。 然後 表示為d
維向量 ,其中第i
個維度是 中第i
個三元組的頻率。
簡介:圖核專為整圖嵌入(Sec.3.2.4)而設計,因為它捕獲整個圖的全域性屬性。 輸入圖的型別通常是同構圖(第 3.1.1 節)[93]或帶有輔助資訊的圖(第 3.1.3 節)[49]。
生成模型
生成模型可以通過規定輸入特徵和類標籤的聯合分佈來定義,以一組引數為條件[139]。 一個例子是 Latent Dirichlet Allocation(LDA),其中文件被解釋為主題上的分佈,主題是單詞上的分佈[140]。 採用生成模型進行圖嵌入有以下兩種方法。
潛在語義空間中的圖嵌入
見解: 節點嵌入到潛在的語義空間中,節點之間的距離解釋了觀察到的圖結構。
第一種基於生成模型的圖嵌入方法,直接在潛在空間中嵌入圖。 每個節點表示為潛在變數的向量。 換句話說,它將觀察到的圖視為由模型生成的。 例如,在LDA中,文件嵌入在“主題”空間中,其中具有相似單詞的文件具有類似的主題向量表示。 [70]設計了類似LDA的模型來嵌入基於位置的社交網路(LBSN)圖。 具體來說,輸入是位置(文件),每個位置包含訪問該位置的一組使用者(單詞)。 由於某些活動(主題),使用者訪問相同的位置(單詞出現在同一文件中)。 然後,模型被設計為將位置表示為活動的分佈,其中每個活動具有對使用者的吸引力分佈。 因此,使用者和位置都表示為“活動”空間中的向量。
包含潛在語義的圖嵌入
見解: 圖中接近且具有相似語義的節點的嵌入應該更緊密。 可以通過生成模型,從節點描述中檢測節點語義。
在這一系列方法中,潛在語義用於利用輔助節點資訊進行圖嵌入。 嵌入不僅由圖結構資訊決定,而且由從其他節點資訊源發現的潛在語義決定。 例如,[58]提出了一個統一的框架,它共同整合了主題建模和圖嵌入。 其原理是如果嵌入空間中兩個節點接近,它們也具有相似的主題分佈。 設計從嵌入空間到主題語義空間的對映函式,以便關聯兩個空間。 [141]提出了一種生成模型(貝葉斯非引數無限混合嵌入模型),以解決知識圖嵌入中的多關係語義問題。 它發現了關係的潛在語義,並利用混合關係元件進行嵌入。 [59]從知識圖三元組和實體和關係的文字描述中嵌入知識圖。 它使用主題建模來學習文字的語義表示,並將三元組嵌入限制在語義子空間中。
上述兩種方法的區別在於嵌入空間是第一種方式的潛在空間。相反,在第二種方式中,潛在空間用於整合來自不同來源的資訊,並有助於將圖嵌入到另一個空間。
簡介:生成模型可用於節點嵌入(Sec.3.2.1)[70]和邊嵌入(Sec.3.2.2)[141]。 在考慮節點語義時,輸入圖通常是異構圖(第 3.1.2 節)[70]或帶有輔助資訊的圖(第 3.1.3 節)[59]。
混合技術和其它
有時在一項研究中結合了多種技術。 例如,[4]通過最小化基於邊的排序損失來學習基於邊的嵌入(第 4.3 節),並通過矩陣分解來學習基於屬性的嵌入(第 4.1 節)。 [51]優化基於邊距的排名損失(第 4.3 節),基於矩陣分解的損失(第 4.1 節)作為正則化項。 [32]使用LSTM(第 4.2節)來學習cQAs的句子的嵌入,以及基於邊際的排名損失(第4.3節)來結合好友關係。 [142]採用CBOW / SkipGram(第 4.2 節)進行知識圖實體嵌入,然後通過最小化基於邊際的排名損失來微調嵌入(第 4.3 節)。 [61]使用word2vec(第 4.2 節)嵌入文字上下文和TransH(第 4.3 節)嵌入實體/關係,以便在知識圖嵌入中利用豐富的上下文資訊。 [143]利用知識庫中的異構資訊來提高推薦效果。 它使用TransR(第 4.3 節)進行網路嵌入,並使用自編碼器進行文字和視覺嵌入(第 4.2 節)。 最後,提出了一個生成框架(第 4.5 節),結合協同過濾與專案的語義表示。
除了引入的五類技術之外,還存在其他方法。 [95]提出了根據原型圖距離的圖的嵌入。 [16]首先使用成對最短路徑距離嵌入一些標誌性節點。 然後嵌入其他節點,使得它們到標誌性子集的距離儘可能接近真實的最短路徑。 [4]聯合優化基於連結的損失(最大化節點的鄰居而不是非鄰居的觀測似然)和基於屬性的損失(基於基於連結的表示學習線性投影)。 KR-EAR [144]將知識圖中的關係區分為基於屬性和基於關係的關係。 它構造了一個關係三元編碼器(TransE,TransR)來嵌入實體和關係之間的相關性,以及一個屬性三元編碼器來嵌入實體和屬性之間的相關性。 Struct2vec [145]根據用於節點嵌入的分層指標,來考慮節點的結構性標識。 [146]通過近似高階鄰近矩陣提供快速嵌入方法。
總結
我們現在總結並比較表10中所有五類圖嵌入技術的優缺點。
**表10:**圖嵌入技術的比較。
類別 | 子類別 | 優點 | 缺點 |
---|---|---|---|
矩陣分解 | 圖拉普拉斯運算元 | 考慮全域性節點鄰近度 | 大量的時間和空間開銷 |
節點鄰近矩陣分解 | |||
深度學習 | 帶有隨機遊走 | 有效而強大, | a)僅考慮路徑中的區域性上下文 |
b)難以發現最優取樣策略 | |||
沒有隨機遊走 | 高計算開銷 | ||
邊重構 | 最大化邊重建概率 | 僅使用觀察到的區域性資訊來優化 | |
最小化基於距離的損失 | 相對有效的的訓練 | 例如邊(一跳的鄰居) | |
最小化基於邊距的排名損失 | 或者排序節點對 | ||
圖核 | 基於graphlet | 有效,只計算所需的原子子結構 | a)子結構不是獨立的 |
基於子樹模式 | b)嵌入維度指數性增長 | ||
基於隨機遊走 | |||
生成模型 | 在潛在的空間中嵌入圖 | 可解釋的嵌入 | a)難以證明分佈的選擇 |
將潛在語義合併到圖嵌入中 | 自然地利用多個資訊源 | b)需要大量訓練資料 |
基於矩陣分解的圖嵌入,基於全域性成對相似性的統計量學習表示。 因此,它可以勝過某些任務中基於深度學習的圖嵌入(涉及隨機遊走),因為後者依賴於單獨的區域性上下文視窗 [147,148]。 然而,鄰近度矩陣構造或矩陣的特徵分解時間和空間開銷大[149],使得矩陣分解效率低且對於大圖不可擴充套件。
深度學習(DL)已經在不同的圖嵌入方法中顯示出有希望的結果。 我們認為DL適合於圖嵌入,因為它能夠自動識別複雜圖結構中的有用表示。 例如,具有隨機遊走的DL(例如,DeepWalk [17],node2vec [28],metapath2vec [46])可以通過圖上的取樣路徑自動利用鄰域結構。 沒有隨機遊走的DL可以模擬同構圖中可變大小的子圖結構(例如,GCN [72],struc2vec [145],GraphSAGE [150]),或者異構圖中型別靈活的節點之間的豐富互動(例如,HNE [33],TransE [91],ProxEmbed [44]),變為有用的表示。 另一方面,DL也有其侷限性。 對於具有隨機遊走的DL,它通常觀測同一路徑中的節點的區域性鄰居,從而忽略全域性結構資訊。 此外,很難找到“最優取樣策略”,因為嵌入和路徑取樣不是在統一框架中聯合優化的。 對於沒有隨機遊走的DL,計算成本通常很高。 傳統的深度學習架構假設輸入資料在1D或2D網格上,來利用GPU [117]。 然而,圖沒有這樣的網格結構,因此需要不同的解決方案來提高效率[117]。
基於邊重建的圖嵌入,基於觀察到的邊或排序三元組來優化目標函式。 與前兩類圖嵌入相比,它更有效。 然而,使用直接觀察到的區域性資訊來訓練這一系列方法,因此所獲得的嵌入缺乏對全域性圖結構的認識。
基於圖核的圖嵌入將圖轉換為單個向量,以便於圖級別的分析任務,例如圖分類。 它比其他類別的技術更有效,因為它只需要在圖中列舉所需的原子子結構。 然而,這種“基於結構袋”的方法有兩個侷限[93]。 首先,子結構不是獨立的。 例如,大小為k+1
的 graphlet 可以從大小為k
graphlet 的派生,通過新增新節點和一些邊。 這意味著圖表示中存在冗餘資訊。 其次,當子結構的大小增加時,嵌入維度通常呈指數增長,導致嵌入中的稀疏問題。
基於生成模型的圖嵌入可以自然地在統一模型中利用來自不同源(例如,圖結構,節點屬性)的資訊。 直接將圖嵌入到潛在語義空間中,會生成可以使用語義解釋的嵌入。 但是使用某些分佈對觀察進行建模的假設很難證明是正確的。 此外,生成方法需要大量的訓練資料來估計適合資料的適當模型。 因此,它可能不適用於小圖或少量圖。
相關文章
- 圖嵌入綜述(arxiv1709.07604)譯文五、六、七
- (譯)haslayout 綜述(一)
- NLP相關論文綜述
- 聯邦學習綜述性論文聯邦學習
- 【讀論文】 -- 推薦系統研究綜述
- 如何入門論文閱讀&綜述小解答
- 入侵檢測系統綜述文獻研讀
- Spring綜述Spring
- API安全綜述API
- 【論文筆記】A review of applications in federated learning(綜述)筆記ViewAPP
- Attention模型方法綜述 | 多篇經典論文解讀模型
- 領域綜述 | 知識圖譜概論(一)
- 圖神經網路綜述:模型與應用神經網路模型
- 視覺SLAM綜述視覺SLAM
- Spring Bean 綜述SpringBean
- JavaScript模板引擎綜述JavaScript
- Java集合框架綜述Java框架
- pl/sql reference綜述SQL
- 李航「機器學習」最全綜述機器學習
- PostgreSQL掃描方法綜述SQL
- 目標檢測綜述
- 損失函式綜述函式
- 對話系統綜述
- Image Caption任務綜述APT
- 網路廣告研究綜述
- RocketMQ綜述(未完成)MQ
- 評價物件抽取綜述物件
- SQL效能調優綜述SQL
- Java 執行緒綜述Java執行緒
- 敏捷開發方法綜述敏捷
- 【JUC】JUC鎖框架綜述框架
- GNOME 技術綜述(轉)
- 【阿菜讀論文】區塊鏈共識演算法綜述區塊鏈演算法
- 智慧機器人以及智慧控制演算法綜述小論文機器人演算法
- 論文閱讀筆記 --- 圖模互補:知識圖譜與大模型融合綜述 --- 按參考文獻整理筆記大模型
- 大規模圖嵌入 | 論文快訊
- 編譯 Android 4.3編譯Android
- Tornado 4.3文件翻譯: 使用者指南-介紹