图数据增强新篇章:可学习的邻居对比学习
2024.04.09 08:20浏览量:5简介:随着图数据在各个领域的广泛应用,如何有效地从图数据中提取有用的信息成为了研究热点。本文介绍了一篇关于可学习图增强的邻居对比学习的论文,通过引入可学习图增强的思想,解决了传统图对比学习中存在的图增强策略选择困难和图嵌入质量低的问题,显著提高了节点分类的性能。
千帆应用开发平台“智能体Pro”全新上线 限时免费体验
面向慢思考场景,支持低代码配置的方式创建“智能体Pro”应用
图数据,作为一种描述实体间关系的数据结构,已经在社交网络、推荐系统、生物信息学等领域得到了广泛的应用。然而,随着图数据规模的不断扩大和复杂性的增加,如何从海量的图数据中提取有用的信息成为了一个巨大的挑战。近年来,图对比学习(Graph Contrastive Learning)作为一种有效的无监督学习方法,受到了广泛关注。它通过结合图神经网络和对比学习,从未标记的图数据中学习嵌入表示,以缓解图数据标签缺乏的问题。
然而,现有的图对比学习方法通常采用人为设计的图增强策略(Handcraft Graph Augmentation),如属性掩蔽、属性扰动、删除边、丢弃节点等,生成两个或多个具有差异性的增强视图。这些策略虽然在一定程度上能够提高模型的泛化能力,但也存在一些问题。首先,由于图数据的多样性,难以找到可适用于不同图数据集的图增强策略。这通常需要依据领域先验知识或反复试错的方式手动为每个图数据集选择合适的图增强,这大大限制了图对比学习方法的效率和泛化能力。其次,现有的人为图增强有可能删除某些关键的节点或边,严重损坏下游任务的相关信息,导致低质量的图嵌入。这意味着锚点的邻居节点也视为负样本,进而被推离锚点,这与网络的同质性假设是矛盾的,即连接的节点通常属于同一类,并且应该彼此接近。
为了解决这些问题,研究者们提出了一种新的图对比学习方法——可学习的邻居对比学习(Neighbor Contrastive Learning on Learnable Graph Augmentation,简称NCLA)。NCLA通过引入可学习图增强的思想,将邻居对比学习应用于可学习图增强。具体而言,NCLA利用多头图注意力机制自动学习具有自适应拓扑结构的多个图增强视图,而不需要依赖人为设计的图增强策略。这种方法可以在不需要先验领域知识的情况下兼容各种图数据集,大大提高了图对比学习方法的效率和泛化能力。
在NCLA中,每个锚点都有多个正信号,这些正信号来自于经过可学习图增强后的邻居节点。通过设计一种允许每个锚点有多个正信号的邻居对比损失,NCLA能够有效地拉近锚点与正样本之间的距离,同时推远锚点与负样本之间的距离。这样,即使在标签非常有限的情况下,NCLA也能够产生先进的节点分类性能,甚至超过了监督图对比学习方法。
为了验证NCLA的有效性,研究者们进行了大量的实验。实验结果表明,在多个真实世界的图数据集上,NCLA都取得了显著的性能提升。无论是对于节点分类任务还是图分类任务,NCLA都能够实现比传统图对比学习方法更好的性能。这充分证明了NCLA在解决图数据标签缺乏问题上的有效性。
总之,可学习的邻居对比学习作为一种新的图对比学习方法,通过引入可学习图增强的思想,解决了传统图对比学习中存在的图增强策略选择困难和图嵌入质量低的问题。NCLA利用多头图注意力机制自动学习具有自适应拓扑结构的多个图增强视图,并设计了一种允许每个锚点有多个正信号的邻居对比损失。大量实验表明,NCLA在自监督图对比学习上产生了最先进的节点分类性能,甚至超过了监督图对比学习方法。这为未来的图数据分析和挖掘提供了新的思路和方法。

发表评论
登录后可评论,请前往 登录 或 注册