暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

Neurocomputing 2022 | HIRE:首个基于HGNN的即插即用的通用高效知识蒸馏框架

348


「来源」:Neurocomputing 2022
「标题」:HIRE: Distilling high-order relational knowledge from heterogeneous graph neural networks
「作者」:Jing Liu, Tongya Zheng, Qinfen Hao
「单位」:中科院计算技术研究所 & 浙江大学
「链接」:https://www.sciencedirect.com/science/article/pii/S0925231222009961
或者https://arxiv.org/abs/2207.11887

「简介」:由于异构图在学术界和工业界的普遍存在,研究人员最近提出了大量的异构图神经网(HGNN)。与追求更强大的HGNN模型不同,本文更加感兴趣的是设计一个通用的即插即用模块,该模块从预先训练的HGNN中提取相关知识。据我们所知,本文是首篇提出异构图神经网络上的高阶关系(HIgh-order RElational, HIRE)知识蒸馏框架,该框架可以显著提高异构图神经网络模型的性能。具体来说,该方法通过进行节点级知识蒸馏(Node-level Knowledge Distillation, NKD),对预训练异构教师模型的单个节点语义进行编码;通过进行关系级知识蒸馏(Relation-level Knowledge Distillatio, RKD),对预训练异构教师模型的不同类型节点之间的语义关系进行建模。通过整合节点级知识蒸馏和系级知识蒸馏, 这种高阶关系知识蒸馏方法成为一种实用且通用的训练方法,适用于任意的异构图神经网络,不仅提升了异构学生模型的性能和泛化能力,而且保证了对异构图神经网络的节点级和关系级知识提取。

HIRE

简介

背景

动机

挑战


方法

NKD

RKD


实验

实验设置

节点分类


节点聚类

节点可视化

消融实验

参数敏感性实验


总结

参考文献

Liu, J., Zheng, T., & Hao, Q. (2022). HIRE: Distilling High-order Relational Knowledge From Heterogeneous Graph Neural Networks. Neurocomputing, 507, 67-83.
文章转载自深度学习与图网络,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论