所有文章 > 正文

GNN论文周报|来自北京大学、中山大学、香港中文大学、MIT等机构前沿论文研究

作者: AMiner科技

时间: 2023-05-30 21:25

图神经网络(GNN)是一类专门针对图结构数据的神经网络模型,在社交网络分析、知识图谱等领域中取得了不错的效果。近来,相关研究人员在GNN的可解释性、架构搜索、对比学习等方面做了很多探究。

本周精选了10篇GNN领域的优秀论文,来自北京大学、中山大学、香港中文大学、MIT等机构。

为了方便大家阅读,只列出了论文标题、作者、AI华同学综述等信息,如果感兴趣可扫码查看原文,PC端数据同步。

1.On Structural Expressive Power of Graph Transformers

作者:Wenhao Zhu,Tianyu Wen,Guojie Song,Liang Wang,Bo Zheng

论文链接:On Structural Expressive Power of Graph Transformers - AMiner

综述(大模型驱动):本文旨在探讨图形Transformer的结构表达能力,通过引入SEG WL测试和图神经网络(GNN)等通用算法,开发了一个通用的结构编码方法,名为最短路径编码,并证明了该方法的可扩展性。这些理论结果为研究图形Transformer的表达能力提供了一个新颖而现实的范式,并进行了大量的合成和真实世界实验来验证我们的方法的强大性。

2.SAD: Semi-Supervised Anomaly Detection on Dynamic Graphs

作者:Sheng Tian,Jihai Dong,Jintang Li,WENLONG ZHAO,Xiaolong Xu,Baokun Wang,Bowen Song,Changhua Meng,Tianyi Zhang,Liang Chen

论文链接:SAD: Semi-Supervised Anomaly Detection on Dynamic Graphs - AMiner

ChatPaper综述(大模型驱动):本文提出了一个名为半监督omaly检测(SAD)的框架,能够有效地利用大规模未标记样本的潜力,并在不断发展的图流中揭示其根源。在四个真实世界数据集上进行的大量实验表明,SAD能够有效地从动态图中获取未标记样本,即使需要少量标记数据。在本文中,作者提出了一种名为半监督omaly检测(SAD)的框架,可以有效地利用大规模未标记样本的潜力,并在不断增长的图流中揭示其根源。

3.Do Not Train It: A Linear Neural Architecture Search of Graph Neural Networks

作者:Peng XU,Lin Zhang,Xuanzhou Liu,Jiaqi Sun,Yue Zhao,Haiqin Yang,Bei Yu

论文链接:Do Not Train It: A Linear Neural Architecture Search of Graph Neural Networks - AMiner

ChatPaper综述(大模型驱动):本文研究了神经结构搜索(NAS)在图神经网络(GNN)中的应用。我们提出了一种基于随机权重的神经结构搜索方法,名为神经结构编码(NAC),并证明了该方法在较轻的条件下可以获得最优的性能。实验结果表明,NAC具有无更新方案,并能在指数时间上有效地计算。因此,NAC具有高达200美元/小时的速度和比强基线更准确。

4.ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings

作者:William Brannon,Suyash Fulay,Hang Jiang,Wonjune Kang,Brandon Roy,Jad Kabbara,Deb Roy

论文链接:ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings - AMiner

ChatPaper综述(大模型驱动):本文提出了一种通用、自监督的混合图文本训练方法ConGraT,它旨在学习单个文本和节点之间的独立表示。该方法使用两种不同的编码器对图节点和文本进行训练,以匹配其表示,并扩展训练目标以考虑节点相似性和下一个猜测。实验结果表明,ConGraT在各种底层任务上表现优异,包括节点和文本类别分类和链接预测。

5.The Evolution of Distributed Systems for Graph Neural Networks and their Origin in Graph Processing and Deep Learning: A Survey

作者:Jana Vatter,Ruben Mayer,Hans-Arno Jacobsen

论文链接:The Evolution of Distributed Systems for Graph Neural Networks and their Origin in Graph Processing and Deep Learning: A Survey - AMiner

ChatPaper综述(大模型驱动):本文介绍了一种新的深度神经网络(GNN)架构,该架构能够处理图结构化数据,并打破图处理和深度学习(DL)之间的边界。作为图像随处可见,GNN可以应用于各种领域,包括推荐系统、计算机视觉、自然语言处理、生物和化学......

6.Causal-Based Supervision of Attention in Graph Neural Network: A Better and Simpler Choice towards Powerful Attention

作者:Hongjun Wang,Jiyuan Chen,Lun Du,Qiang Fu,Shi Han,Xuan Song

论文链接:Causal-Based Supervision of Attention in Graph Neural Network: A Better and Simpler Choice towards Powerful Attention - AMiner

ChatPaper综述(大模型驱动):本文提出了一种新的框架,利用因果关系技术为注意函数学习过程提供强大监督信号。具体而言,我们估计了对最终预测的直接因果影响,然后最大化这种影响以引导关注到更重要的邻居方面。该方法可用于任何有特色的基于图表示学习的基准研究。在广泛的基准数据集上进行的实验表明,通过直接监控注意函数,模型可以更快地滑入决策边界,从而产生更好的性能。

7.Learning for Open-World Calibration with Graph Neural Networks

作者:Qin Zhang,Dongsheng An,Tianjun Xiao,Tong He,Qingming Tang,Ying Nian Wu,Joseph Tighe,Yifan Xing

论文链接:Learning for Open-World Calibration with Graph Neural Networks - AMiner

ChatPaper综述(大模型驱动):本文解决了开放世界识别的阈值校正问题,通过将表示密集性度量整合到聚类中。我们的方法基于两个关键观察:(i)相互映射结构在高维视觉嵌入空间中的表示结构具有强有力的自我相似性,可以有效地支持向开放世界的转移能力,(ii)intraclass嵌入结构可以使用最小化von Mises Fisher(vMF)概率进行建模,其与真实阳性率呈差异性的关系是数据集不变的。基于这些原因,我们设计了一个名为图神经网络(GNN)的联合框架来共同预测pseudo标记和vMF浓度,表明表示密集性

8.Atomic and Subgraph-aware Bilateral Aggregation for Molecular Representation Learning

作者:Jiahao Chen,Yurou Liu,Jiangmeng Li,Bing Su,Jirong Wen

论文链接:Atomic and Subgraph-aware Bilateral Aggregation for Molecular Representation Learning - AMiner

ChatPaper综述(大模型驱动):本文介绍了分子表示学习中的一个关键问题:传统的图神经网络(GNN)建模方法只考虑原子层面的信息,不能很好地表示分子中的功能基团信息。因此,本文提出了一种新的分子表示学习模型——原子和子图感知双向聚合(ASBA),它能够同时考虑原子和子图层面的信息,有效地提高了分子属性预测的准确性和泛化能力。同时,本文还提出了一些自监督学习策略,进一步提高了ASBA的性能。本文的方法对于药品和材料的发现应用具有广泛的潜力。

9.DEGREE: Decomposition Based Explanation For Graph Neural Networks

作者:Qizhang Feng,Ninghao Liu,Fan Yang,Ruixiang Tang,Mengnan Du,Xia Hu

论文链接:DEGREE: Decomposition Based Explanation for Graph Neural Networks - AMiner

ChatPaper综述(大模型驱动):图神经网络(GNN)在图数据中越来越受到关注。然而,这些模型的黑盒性阻碍了用户对这些模型的感知和信仰,从而妨碍了它们的应用。为了解决这些问题,我们提出了DEGREE(基于分解的解释)来为GNN预测提供可靠的解释。通过分解GNN的信息生成和收集机制,该协议允许跟踪输入图到最终预测的贡献。基于这一点,我们进一步设计了一个子图级别的解释算法,以揭示以前方法中忽视的一些特征。我们的算法的效率可以得到进一步改进,使用GNN特性。最后,我们进行了量化和质量实验,以证明该算法对于节点分类和图分类任务的有效性。

10.Do We Need an Encoder-Decoder to Model Dynamical Systems on Networks?

作者:Bing Liu,Wei Luo,Gang Li,Jing Huang,Bo Yang

论文链接:Do We Need an Encoder-Decoder to Model Dynamical Systems on Networks? - AMiner

ChatPaper综述(大模型驱动):本文提出了一种基于嵌入的动态模型,用于纠正长期行为。通过对双重图神经网络进行参数化,该模型能够有效地恢复不同网络拓扑结构的广泛类别。通过实验验证,所提出的模型可以可靠地从时间序列数据中恢复多种动态模式。

二维码 扫码微信阅读
推荐阅读 更多