双通道知识蒸馏的节点分类方法

WANG Xin-sheng,ZHU Xiao-fei, HUANG Xian-ying

Journal of Chinese Computer Systems(2023)

引用 0|浏览0
暂无评分
摘要
近年来,基于教师-学生的知识蒸馏框架在图神经网络方面取得了较好的表现.然而这类知识蒸馏框架仍存在一些问题,如教师模型的知识信息不够全面,不能很好地指导学生模型;学生模型自身学习能力较差.为了解决这两方面的问题,本文提出了基于双通道知识蒸馏的节点分类方法.具体而言,该方法引入双教师模型,分别从拓扑结构和特征属性两个方面进行学习,保证了教师模型知识信息的多样性和全面性.学生模型采用参数化标签传播和邻居特征聚合两种预测机制,保证其具有更好的学习能力.最终,双教师模型分别从拓扑结构和特征属性两个方面对学生模型进行指导.在 5 个真实数据集上的实验结果表明该模型与最优基准模型相比具有更好的分类效果.
更多
关键词
knowledge distillation,graph neural network,node classification,label propagation,attention mechanism
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要