假期必讀:一文看盡2019-2020各大頂會GNN論文(附連結)

資料派THU發表於2020-01-21
縱觀2019年包括深度學習計算機視覺、文字處理以及資料探勘在內的頂級會議,圖學習相關的論文較於之前都有十分明顯的增長。而就 2020的情況來看,這個趨勢還在不斷擴大。總之,Graph Neural Network 在2019- 2020年之間,力壓 Deep Learning、GAN等,成為各大頂會的增長熱詞,且GNN在各個領域越來越受到歡迎,包括社交網路、知識圖譜推薦系統,甚至生命科學。大家在假期期間不妨收藏起來慢慢讀。
假期必讀:一文看盡2019-2020各大頂會GNN論文(附連結)
KDD 2019

1、Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Networks

作者:Wei-Lin Chiang; Xuanqing Liu; Si Si; Yang Li; Samy Bengio; Cho-Jui Hsieh;
推薦理由:這篇論文提出了一種新的基於圖聚類結構且適合於基於SGD訓練的GCN演算法——Cluster-GCN,高效解決工業界訓練大規模深層圖卷積神經網路問題,效能大幅提升基礎上依靠可訓練更深層網路優勢達到SOTA效果,並開源了原始碼。

地址:https://arxiv.org/pdf/1905.07953.pdf

2、Conditional Random Field Enhanced Graph Convolutional Neural Networks
作者:Hongchang Gao; Jian Pei; Heng Huang;

推薦理由:為解決神經網路的隱藏層的問題,作者們提出了一種新的CRF層用於圖卷積神經網路,以使得相似節點具有相似的隱藏特徵。這樣,可以顯式地儲存相似性資訊。此外,作者提出的CRF層易於計算和優化。因此,它可以很容易地插入到現有的圖卷積神經網路中,提高其效能。同時,他們用大量的實驗結果驗證了CRF層的有效性。

地址:

https://www.kdd.org/kdd2019/accepted-papers/view/conditional-random-field-enhanced-graph-convolutional-neural-networks

3、DEMO-Net: Degree-specific Graph Neural Networks for Node and Graph Classification

作者:Jun Wu; Jingrui He; Jiejun Xu;

推薦理由:為了解決神經網路的一些侷限性問題,作者們提出了一種基於Weisfeiler- Lehman圖同構測試的通用degree-specific神經網路DEMO-Net。在多個節點和圖分類基準資料集上的實驗結果表明,他們提出的DEMO-Net相對於最先進的神經網路模型的有效性和高效性。

地址:
https://arxiv.org/abs/1906.02319?context=cs

4、GCN-MF: Disease-Gene Association Identification By Graph Convolutional Networks and Matrix Factorization

作者:Peng Han; Peng Yang; Peilin Zhao; Shuo Shang; Yong Liu; Jiayu Zhou; Xin Gao; Panos Kalnis;

推薦理由:發現疾病基因關聯是一項基礎性和關鍵性的生物醫學任務,它有助於生物學家和醫生發現症候的致病機制。基於網路的半監督學習(NSSL)是這些研究中常用的一種方法,它利用各種臨床生物標誌物來測量基因和疾病表型之間的相似性,來解決這個類平衡的大規模資料問題。然而,大多數現有的NSSL方法都是基於線性模型的,存在兩個主要限制:1)它們隱式地考慮每個候選物件的區域性結構表示; 2)他們無法捕捉疾病和基因之間的非線性聯絡。這篇文章將圖卷積網路(GCN)和矩陣因子分解相結合,提出了一種新的疾病基因關聯任務框架GCN-MF。在GCN的幫助下,作者可以捕獲非線性相互作用,並利用測量到的相似性。此外,他們定義了一個邊際控制損失函式,以減少稀疏性的影響。實驗結果表明,所提出的深度學習演算法在大多數指標上都優於其他最先進的方法。

地址:

https://www.kdd.org/kdd2019/accepted-papers/view/cluster-gcn-an-efficient-algorithm-for-training-deep-and-large-graph-convol


5、Estimating Node Importance in Knowledge Graphs Using Graph Neural Networks

作者:Namyong Park; Andrey Kan; Xin Luna Dong; Tong Zhao; Christos Faloutsos;

推薦理由:在這篇文章中,作者們提出了GENI,一種解決知識圖譜(KG)中節點重要性估計問題的方法,作者通過predicate-aware注意力機制和靈活的中心性調整來執行重要性分數的聚合,而不是聚合節點嵌入。在他們對GENI和現有方法的評估中,GENI在預測具有不同特徵的真實KG中節點重要性方面比現有方法高出5-17%。

地址:https://arxiv.org/abs/1905.08865

6、Graph Recurrent Networks with Attributed Random Walks

作者:Xiao Huang; Qingquan Song; Yuening Li; Xia Hu;

推薦理由:作者研究了在attributed網路上進行聯合隨機遊動,並利用它們來提高深度節點表示學習。他們提出的框架GraphRNA由兩個主要元件組成:一種協作遊走機制—AttriWalk,以及一種為隨機遊走量身定製的深度嵌入體系結構,稱為圖遞迴網路(graph recurrent networks ,GRN)。AttriWalk使我們能夠將突出的深度網路嵌入模型-圖卷積網路推向一個更有效的架構——GRN。GRN賦予節點表示以與原始attributed網路中的節點互動相同的方式進行互動。在真實資料集上的實驗結果表明,與目前最先進的嵌入演算法相比,GraphRNA演算法很有效。

地址:

https://www.kdd.org/kdd2019/accepted-papers/view/graph-recurrent-networks-with-attributed-random-walks

7、Representation Learning for Attributed Multiplex Heterogeneous Network

作者:Yukuo Cen, Xu Zou, Jianwei Zhang, Hongxia Yang, Jingren Zhou, Jie Tang

推薦理由:這篇論文來自阿里團隊。作者們主要處理包含異構節點和異構邊的圖的表示學習問題。阿里電商的資料由使用者和商品構成的圖就是異構的,不僅包含異構的節點(使用者和商品),而且包含異構的邊(使用者和商品的多種互動行為,比如點選、購買等)。不僅如此,圖中的節點還包含著豐富的屬性。

論文:http://t.cn/Ai9I8OPE;
程式碼:http://t.cn/Ai9I8OPn;

NeurIPS2019

1、GNN Explainer: Generating Explanations for Graph Neural Networks 

作者:Zhitao Ying, Dylan Bourgeois, Jiaxuan You, Marinka Zitnik, Jure Leskovec 

推薦理由:本文由史丹佛Jure組收錄在NeurIPS2019上。神經網路包括神經網路在很多領域都得到了應用也取得了很好的效果,但是如何對神經網路的預測結果進行解釋是一個問題。很多工作嘗試利用注意力機制來對模型預測結果進行解釋。該論文提出的GNN Explainer可以從網路結構和節點屬性的角度來對任意神經網路和任意圖挖掘任務生成解釋,可以為 GNN 的判斷結果提供重要依據。

地址:https://arxiv.org/abs/1903.03894

2、Graph Transformer Networks 

作者:Seongjun Yun, Minbyul Jeong, Raehyun Kim, Jaewoo Kang, Hyunwoo Kim 

推薦理由:該論文來自NIPS 2019。大多數現有的GNNs都被設計為在固定和同質的圖上學習節點表示。當在不確定的圖或由各種型別的節點和邊組成的異質圖上學習表示時,這些限制尤其成問題。一般的GNN手動定義元路徑,但GTNs可以學習有效的元路徑。因此GTNs的出現提出了:1、一種新的圖變換網路,識別有用的元路徑和多跳連線來學習圖上的有效節點表示。2、圖的生成是可解釋的,提供有效路徑連線的解釋。3、證明了圖變換網路學習的節點表示的有效性,從而獲得了最佳的效能,而現有的方法在異質圖的所有三種基準節點分類中都使用了領域知識。

地址:
http://data.holdenhu.site/papers/graph/graph-transformer-networks.pdf

3、Can Graph Neural Networks Help Logic Reasoning?

作者:Yuyu Zhang, Xinshi Chen, Yuan Yang, Arun Ramamurthy, Bo Li, Yuan Qi, Le Song

推薦理由:這篇論文來自NeurIPS 2019。該論文研究了GNN和馬爾科夫邏輯網路在邏輯推理、概率推理方面的表現孰強孰弱。作者們的分析表明,原始的GNN嵌入就有能力編碼知識圖中的隱含資訊,但是無法建模謂詞之間的依賴關係,也就是無法處理馬爾科夫邏輯網路的後向引數化。為了解決這個問題,作者們設計了ExpressGNN架構,其中有額外的幾層可調節的嵌入,作用是對知識圖中的實體做層次化的編碼。

地址:
https://kr2ml.github.io/2019/papers/KR2ML_2019_paper_22.pdf

ICCV 2019

1、DeepGCNs: Can GCNs Go as Deep as CNNs?

作者:Guohao Li, Matthias Müller, Ali Thabet, Bernard Ghanem

推薦理由:該論文來自ICCV 2019 Oral。這篇文章主要闡述了怎麼去構建一個網路使得GCN能夠堆疊更深的層且不會發生梯度消失的問題,引入了三個方法:1.Resnet 2.Densenet 3.Dilated convolutions 。最後,使用構建了一個非常深的56層的GCN,並展示它如何在點雲語義分割任務中顯著地提升了效能(相當於最先進的3.7%mIoU|均交併比)。

地址:https://arxiv.org/abs/1904.03751

2. Exploiting Spatial-temporal Relationships for 3D Pose Estimation via Graph Convolutional Networks

作者:Yujun Cai, Liuhao Ge, Jun Liu, Jianfei Cai, Tat-Jen Cham, Junsong Yuan, Nadia Magnenat Thalmann;

推薦理由:這篇論文提出了一種新的基於圖的方法來解決短序列二維關節檢測的三維人體和三維手部姿態估計問題。特別是將人手(身體)構型的領域知識顯式地融入到圖卷積運算中,以滿足三維姿態估計的特定需求。此外,作者還介紹了一個從區域性到全域性的網路架構,該架構能夠學習基於圖表示的多尺度特性。他們評估了所提出的方法在具有挑戰性的基準資料集的三維手部姿態估計和三維身體位姿估計。實驗結果表明,該方法在兩種任務上都達到了最先進的效能。

地址:

https://cse.buffalo.edu/~jsyuan/papers/2019/Exploiting_Spatial-temporal_Relationships_for_3D_Pose_Estimation_via_Graph_Convolutional_Networks.pdf


3、Graph Convolutional Networks for Temporal Action Localization

作者:Runhao Zeng, Wenbing Huang, Mingkui Tan, Yu Rong, Peilin Zhao, Junzhou Huang, Chuang Gan;

推薦理由:這篇論文中,作者提出利用圖卷積網路(GCNs)來挖掘proposal - proposal關係。首先,構造一個action proposal圖,其中每個proposal表示為一個節點,兩個proposal之間的關係表示為一條邊。這裡使用兩種型別的關係,一種用於捕獲每個proposal的上下文資訊,另一種用於描述不同action之間的關聯。作者在圖上應用GCN,以對不同proposal之間的關係進行建模,學習了動作分類和定位的強大表示。實驗結果表明,這個方法在THUMOS14上顯著優於最先進的方法(49.1% versus42.8%)。此外,ActivityNet上的增強實驗也驗證了action proposal關係建模的有效性。

地址:https://arxiv.org/abs/1909.03252

程式碼:https://github.com/alvinzeng/pgcn


4、Learning Semantic-Specific Graph Representation for Multi-Label Image Recognition

作者:Tianshui Chen, Muxin Xu, Xiaolu Hui, Hefeng Wu, Liang Lin;

推薦理由:這篇論文提出了一個語義特定的圖表示學習(SSGRL)框架,該框架由兩個關鍵模組組成:1)一個語義解耦模組,該模組整合了範疇語義以指導學習語義特定的表示;2)一個語義互動模組。它將這些表示與建立在統計標籤共現上的圖相關聯,並通過圖傳播機制探索它們的互動作用。在公共基準上的大量實驗表明,作者的SSGRL框架在很大程度上優於當前最先進的方法,例如,在PASCAL VOC 2007 & 2012, Microsoft-COCO and Visual Genome benchmarks資料集上,mAP的效能分別提高了2.5%、2.6%、6.7%和3.1%。

地址:https://arxiv.org/abs/1908.07325
程式碼和模型:https://github. com/HCPLab-SYSU/SSGRL

WWW 2019

1、Is a Single Embedding Enough? Learning Node Representations that Capture Multiple Social Contexts 

作者:Alessandro Epasto, Bryan Perozzi

推薦理由:該論文來自Google at WWW 2019。論文提出的Splitter是一種無監督的嵌入方法,允許圖中的節點可以嵌入多個向量,以便更好地表示節點在一些重疊社群的參與。直觀地說,這是因為圖中的每個節點通常會在單個上下文中與給定的鄰居節點產生互動。

地址:http://t.cn/AiukgqNA;

2、NetSMF: Large-Scale Network Embedding as Sparse Matrix Factorization

作者:Jiezhong Qiu, Yuxiao Dong, Hao Ma, Jian Li, Chi Wang, Kuansan Wang, Jie Tang

推薦理由:提出適用於大規模網路表示學習方法NetSMF,利用稀疏矩陣分解來學習大規模網路embedding,相對於現有方法DeepWalk/ LINE/ Node2Vec等極大地提高了學習效率。

地址:http://t.cn/AiuF7p97;

3、Graph Neural Networks for Social Recommendation

作者:Wenqi Fan, Yao Ma, Qing Li, Yuan He, Eric Zhao, Jiliang Tang, Dawei Yin

推薦理由:作者提出了一種新的用於社交推薦的神經網路框架GraphRec。更好地聯合捕獲使用者-商品圖中的互動和意見。並在兩個真實資料集上的大量實驗證明了該框架的有效性。

地址:http://t.cn/AiuFAzVr;

4、Dual Graph Attention Networks for Deep Latent Representation of Multifaceted Social Effects in Recommender Systems

作者:Qitian Wu, Hengrui Zhang, Xiaofeng Gao, Peng He, Paul Weng, Han Gao, Guihai Chen

推薦理由:這篇文章提出了雙圖注意網路來協作學習兩重社會效應的表示,一個是由使用者特定的注意權重建模,另一個是由動態的和上下文感知的注意權重建模。作者還將使用者域中的社會效應擴充套件到專案域,從而可以利用相關專案中的資訊進一步緩解資料稀疏問題。此外,考慮到兩個領域中不同的社會效應可以相互作用,共同影響使用者對物品的偏好,他們提出了一種新的基於策略的融合策略,該策略基於上下文多武裝匪徒來衡量不同社會效應之間的相互作用。在一個基準資料集和一個商業資料集上的實驗驗證了模型中關鍵元件的有效性。

地址:http://t.cn/EiVtzOj;

ICML 2019

1、 Compositional Fairness Constraints for Graph Embeddings 

作者:Avishek Joey Bose, William L. Hamilton

推薦理由:這篇文章針對現有的Graph Embedding演算法無法處理公平約束,例如確保所學習的表示與某些屬性(如年齡或性別)不相關,引入一個對抗框架來對Graph Embedding實施公平性約束。

地址:http://t.cn/AiukgnqL

2、Graph Matching Networks for Learning the Similarity of Graph Structured Objects 

作者:Yujia Li, Chenjie Gu, Thomas Dullien, Oriol Vinyals, Pushmeet Kohli

推薦理由:這篇文章針對圖結構物體的檢索與匹配這一具有挑戰性的問題,做了兩個關鍵的貢獻。首先,作者演示瞭如何訓練神經網路(GNN)在向量空間中嵌入圖,從而實現高效的相似性推理。其次,提出了一種新的圖匹配網路模型,該模型以一對圖作為輸入,通過一種新的基於注意力的交叉圖匹配機制,對圖對進行聯合推理,計算出圖對之間的相似度評分。

地址:http://t.cn/ES9dZYU

3、GMNN: Graph Markov Neural Networks  

作者:Meng Qu, Yoshua Bengio, Jian Tang

推薦理由:統計關係學習方法可以通過條件隨機場對物件標籤的依賴關係進行有效的建模,用於集體分類,而神經網路則通過端到端訓練學習有效的物件表示來分類。在本文中,我們提出了一種集兩種方法優點於一體的Graph Markov Neural Networks (GMNN)。GMNN利用條件隨機場對目標標籤的聯合分佈進行建模,利用變分EM演算法對其進行有效訓練。

地址:http://t.cn/EKOJK3x;

4、MixHop: Higher-Order Graph Convolutional Architectures via Sparsified Neighborhood Mixing

作者:Sami Abu-El-Haija, Bryan Perozzi, Amol Kapoor, Nazanin Alipourfard, Kristina Lerman, Hrayr Harutyunyan, Greg Ver Steeg, Aram Galstyan

推薦理由:作者們針對基於神經網路半監督學習方法(如圖卷積網路)不能學習一般的鄰域混合關係的缺點,提出了一個新的模型MixHop,它可以通過在不同距離重複混合鄰居的特徵表示來學習這些關係,包括不同的操作符。

地址:http://t.cn/AiuFAY4V;

ACL 2019

1、Cognitive Graph for Multi-Hop Reading Comprehension at Scale  

作者:Ming Ding, Chang Zhou, Qibin Chen, Hongxia Yang, Jie Tang

推薦理由:這篇論文中提出了一種新的基於CogQA的web級文件multi-hop問答框架。基於BERT和GNN的實現有效地處理了HotpotQA fullwiki資料集中數百萬個multi-hop推理問題的文件,在排行榜上獲得了34.9的F1 score,而最佳競爭對手的得分為23.6。

地址:http://t.cn/EKSfKkr;

2、Coherent Comment Generation for Chinese Articles with a Graph-to-Sequence Model 

作者:Wei Li, Jingjing Xu, Yancheng He, Shengli Yan, Yunfang Wu, Xu Sun

推薦理由:這篇文章中,作者們提出使用一個Graph-to-Sequence的模型來生成評論,該模型將輸入的新聞建模為一個主題互動圖。通過將文章組織成圖結構,他們的模型可以更好地理解文章的內部結構和主題之間的聯絡,這使得它能夠更好地理解故事。

地址:http://t.cn/AiuF26Ve;

3、Dynamically Fused Graph Network for Multi-hop Reasoning

作者:Yunxuan Xiao, Yanru Qu, Lin Qiu, Hao Zhou, Lei Li, Weinan Zhang, Yong Yu

推薦理由:作者們提出了動態融合圖網絡(Dynamically Fused Graph Network ,DFGN),這是一種解決需要多個分散證據和推理的問題的新方法。受人類逐步推理行為的啟發,DFGN包含一個動態融合層,從給定查詢中提到的實體開始,沿著文字動態構建的實體圖進行探索,並逐步從給定文件中找到相關的支援實體。

地址:http://t.cn/EKR7rcy;

4、Incorporating Syntactic and Semantic Information in Word Embeddings using Graph Convolutional Networks  

作者:Shikhar Vashishth, Manik Bhandari, Prateek Yadav, Piyush Rai, Chiranjib Bhattacharyya, Partha Talukdar

推薦理由:作者們提出SynGCN來解決現有的詞嵌入方法大多利用詞的sequential context而沒有利用詞的syntactic context,SynGCN是一種靈活的基於圖卷積的學習詞嵌入的方法。他們還提出了SemGCN,這是一個有效的框架,用於整合不同的語義知識,以進一步增強所學習的單詞表示。並開源了程式碼。

論文:http://t.cn/EKR7rcy;
程式碼:http://t.cn/AiuF2k4G

5、Attention Guided Graph Convolutional Networks for Relation Extraction 

作者:Zhijiang Guo,Yan Zhang and Wei Lu

推薦理由:這篇文章提出了一種直接以全依賴樹為輸入的Attention Guided圖卷積網路(AGGCNs)模型。該模型可以理解為一種soft-pruning方法,它自動學習如何有選擇地關注對關係提取任務有用的相關子結構。在包括跨句n元關係提取和大規模句級關係提取在內的各種任務上的大量結果表明,這個模型能夠更好地利用全依賴樹的結構資訊,其結果顯著優於之前的方法。

地址:

http://www.statnlp.org/paper/2019/attention-guided-graph-convolutional-networks-relation-extraction.html

6、Encoding Social Information with Graph Convolutional Networks for Political Perspective Detection in News Media

作者:Chang Li, Dan Goldwasser

推薦理由:確定新聞事件在媒體中討論方式的政治視角是一項重要而富有挑戰性的任務。在這篇文章中,作者強調了將社交網路置於情景化的重要性,捕捉這些資訊如何在社交網路中傳播。作者使用最近提出的一種表示關係資訊的神經網路結構——圖卷積網路(Graph Convolutional Network)來捕獲這些資訊,並證明即使在很少的social information分類中也可以得到顯著改進。

地址:
https://www.cs.purdue.edu/homes/dgoldwas//downloads/papers/LiG_acl_2019.pdf

ICLR 2020

1、GraphZoom: A Multi-level Spectral Approach for Accurate and Scalable Graph Embedding 

作者:Chenhui Deng, Zhiqiang Zhao, Yongyu Wang, Zhiru Zhang, Zhuo Feng 

推薦理由:該論文來自ICLR 2020。圖嵌入技術已經被越來越多地應用於涉及非歐幾里德資料學習的眾多不同應用中。然而,現有的圖形嵌入模型在訓練過程中不能合併節點屬性資訊或者遭受節點屬性噪聲,這會影響精度。此外,由於計算複雜度高、記憶體佔用大,很少有人對大型圖形進行擴充套件。在這篇論文中,作者們提出的GraphZoom是一個多層次的框架,用於提高無監督圖嵌入演算法的準確性和可擴充套件性。GraphZoom首先進行圖融合,生成一個新的圖,有效地編碼原始圖的拓撲結構和節點屬性資訊。然後,通過合併具有高光譜相似性的節點,將該融合圖反覆粗化為更小的圖。GraphZoom允許任何現有的嵌入方法應用於粗化圖,然後逐步細化在最粗糙的水平上獲得的嵌入到越來越精細的圖。

地址:
https://arxiv.org/abs/1910.02370?context=cs

2、Strategies for Pre-training Graph Neural Networks 

作者:Weihua Hu,Bowen Liu,Joseph Gomes, Marinka Zitnik,Percy Liang, Vijay Pande,,Jure Leskovec 

推薦理由:這篇論文同樣來自ICLR 2020。機器學習在科學和醫學中的許多應用,包括分子性質和蛋白質功能預測,都可以歸結為預測圖的某些性質的問題,在這些問題中,具有良好的圖表示是至關重要的。然而,這些領域中的兩個關鍵挑戰是:(1)由於昂貴的實驗室實驗,標記資料極為稀缺;(2)需要外推,以測試結構上不同於訓練期間看到的圖表。在這篇文章中,作者們探討了如何在訓練前應對這兩個挑戰。他們提出了一系列方法在節點級和圖形級上對GNNs進行預訓練,同時使用未標記的資料和來自相關輔助監督任務的標記資料。作者對兩種應用,分子性質和蛋白質功能預測進行了廣泛的評價,並觀察到,與未經預先訓練的模型相比,僅執行圖級監督的預先訓練通常會導致邊際效能增益,甚至會使效能惡化。另一方面,有效地結合節點級和圖級預訓練技術顯著地提高了對分佈外圖的泛化能力。

地址:
https://arxiv.org/abs/1905.12265?context=cs.LG

3、Geom-GCN:Geometric Graph Convolutional Networks

作者:Hongbin-Pei,Bingzhe-Wei,Kevin Chen-chuan 

推薦理由:ICLR 2020開源論文。該論文提出了一種 geometric aggregation scheme,其可以同時在真實圖結構/隱空間來聚合資訊來克服 MPNNs 兩個基礎性缺陷,此外還提出了一種基於 geometric aggregation scheme 的神經網路 Geom-GCN,並且實驗驗證了模型的效果。

地址:
https://openreview.net/forum?id=S1e2agrFvS

4、Contrastive Learning of Structured World Models 

作者:Thomas Kipf, Elise van der Pol, Max Welling 

推薦理由:改論文從物件、關係和層次結構上對世界的結構化理解是人類認知重要的組成部分。但是,讓機器從原始的感官資料中學習結構化的世界模型是非常有挑戰性的。所以他們提出了一個叫做 Contrastively-trained Structured World Models(C-SWMs)的模型。該模型利用對比的方法在有組合結構的環境中進行表示學習。文章將每個狀態 embedding 為一組物件及其關係的表示,並用神經網路來建模。他們在包含多個互動物件的組合環境中評估了 C-SWMs。

地址:https://arxiv.org/abs/1911.12247

5、The Logical Expressiveness of Graph Neural Networks 

作者:Pablo Barceló, Egor V. Kostylev, Mikael Monet, Jorge Pérez, Juan Reutter, Juan Pablo Silva 

推薦理由:這篇論文同樣被ICLR 2020收錄,由常年戰鬥在圖領域的大佬 Pablo Barceló 團隊貢獻。神經網路(GNN)區分圖節點的能力最近已經通過用於檢查圖同構性的 Weisfeiler-Lehman(WL)測試進行了表徵。但是,這種表徵並不能解決哪些布林節點分類器可以由 GNN 來表示 (即,將圖中的節點分類為真或假的函式)的問題。這篇文章專注於研究布林分類器來解決上述問題。作者證明,聚合組合神經網路(AC-GNN)的表達方式對應於描述邏輯ALCQ,它是FOC_2的子集。作者還進一步證明,如果我們新增一個獨處成分,將GNN轉換為聚合組合讀出GNN(ACR-GNN),則FOC_2中的每個公式都可以由ACR-GNN分類器捕獲。

地址:
https://openreview.net/forum?id=r1lZ7AEKvB
假期必讀:一文看盡2019-2020各大頂會GNN論文(附連結)
GNN相關的一些開源平臺

1、Deep Graph Library(DGL)

DGL由紐約大學、紐約大學上海分校、AWS上海研究所和AWS MXNet科學小組開發和維護GNN平臺。
開始時間: 2018.

地址: https://www.dgl.ai/,
github地址:
https://github.com/jermainewang/dgl

2、NGra

NGra是由北京大學和微軟亞洲研究院開發和維護一款GNN平臺。

開始時間:2018
地址: https://arxiv.org/pdf/1810.08403.pdf
Graph_nets

Graph_nets是由DeepMind, Google Corp開發和維護的.

開始時間:2018
地址: https://github.com/deepmind/graph_nets

3、Euler

Euler是一款由阿里巴巴旗下的阿里媽媽開源的GNN平臺.

開始時間:2019
地址: https://github.com/alibaba/euler

4、PyTorch Geometric

PyTorch Geometric由德國杜特蒙德大學開發和維護的GNN平臺。

開始時間:2019
地址:
https://github.com/rusty1s/pytorch_geometric
論文:
https://arxiv.org/abs/1903.02428?context=cs.LG

5、PyTorch-BigGraph(PBG)

PBG是由Facebook人工智慧研究開發和維護的GNN平臺。

開始時間:2019
地址: 
https://github.com/facebookresearch/PyTorch-BigGraph
論文:https://arxiv.org/abs/1903.12287

以上是本期乾貨,歡迎大家轉發收藏~

相關文章