Fully Inductive Node Representation Learning via Graph View Transformation

📄 arXiv: 2512.11561v1 📥 PDF

作者: Dooho Lee, Myeong Kong, Minho Jeong, Jaemin Yoo

分类: cs.LG

发布日期: 2025-12-12


💡 一句话要点

提出图视图变换GVT,实现跨数据集全归纳节点表示学习

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 图神经网络 全归纳学习 跨数据集泛化 图视图变换 节点表示学习

📋 核心要点

  1. 现有图神经网络难以泛化到未见数据集,因为不同数据集的特征空间差异大,直接应用预训练模型效果不佳。
  2. 论文提出图视图变换(GVT)方法,将图编码到统一的视图空间,实现节点和特征置换等变性,增强模型的泛化能力。
  3. 实验结果表明,Recurrent GVT在多个节点分类任务上显著优于现有全归纳图模型和独立调优的GNN。

📝 摘要(中文)

将预训练模型推广到未见数据集而不进行重新训练,是迈向基础模型的关键一步。然而,在图结构化数据中实现这种跨数据集、全归纳推理是困难的,因为特征空间在维度和语义上差异很大。特征空间中的任何变换都容易违反对未见数据集的归纳适用性,严格限制了图模型的设计空间。本文引入了视图空间,这是一种新的表示轴,其中任意图可以以统一的方式自然地编码。然后,我们提出了图视图变换(GVT),一种在视图空间中的节点和特征置换等变映射。GVT作为循环GVT的构建块,循环GVT是一种用于节点表示学习的全归纳模型。在OGBN-Arxiv上预训练并在27个节点分类基准上评估,循环GVT优于先前的全归纳图模型GraphAny +8.93%,并且超过了12个单独调整的GNN至少+3.30%。这些结果表明,视图空间是全归纳节点表示学习的一个原则性和有效的基础。

🔬 方法详解

问题定义:论文旨在解决图神经网络在跨数据集场景下的全归纳学习问题。现有图神经网络模型通常依赖于固定的图结构和特征空间,难以直接泛化到具有不同特征空间和结构的未见数据集。这种限制阻碍了图神经网络在实际应用中的部署,尤其是在需要处理多样化图数据的场景下。现有方法要么需要针对每个新数据集进行重新训练,要么性能显著下降。

核心思路:论文的核心思路是将图数据映射到一个统一的“视图空间”,在这个空间中,图的结构和节点特征可以被抽象成一种通用的表示形式。通过在视图空间中进行图变换,模型可以学习到与具体特征空间无关的图结构信息,从而实现更好的泛化能力。这种方法类似于图像领域的归一化操作,旨在消除不同数据集之间的特征差异。

技术框架:Recurrent GVT模型主要包含以下几个阶段:1) 图视图构建:将原始图数据转换为视图空间中的表示。2) 图视图变换(GVT):利用GVT模块在视图空间中进行节点表示学习,该模块具有节点和特征置换等变性。3) 循环GVT:通过循环应用GVT模块,逐步提取图的结构信息。4) 节点分类:利用学习到的节点表示进行节点分类任务。

关键创新:论文的关键创新在于提出了“视图空间”的概念,并设计了图视图变换(GVT)模块。视图空间提供了一种统一的图表示框架,使得模型可以学习到与具体特征空间无关的图结构信息。GVT模块通过节点和特征置换等变性,保证了模型在不同图结构和特征空间下的泛化能力。与现有方法相比,GVT不需要针对每个新数据集进行重新训练,可以直接应用于未见数据集。

关键设计:GVT模块的设计需要保证节点和特征置换等变性。具体实现方式未知,但可以推测可能采用了某种聚合操作,例如求和或平均,以保证节点表示对节点顺序不敏感。循环GVT的循环次数可能是一个重要的超参数,需要根据具体任务进行调整。损失函数的设计也需要考虑如何最大化节点表示的区分性和泛化能力。具体参数设置和网络结构细节在论文中可能有所描述,但此处无法得知。

🖼️ 关键图片

img_0

📊 实验亮点

Recurrent GVT在27个节点分类基准测试中表现出色,相较于之前的全归纳图模型GraphAny,性能提升了8.93%。此外,Recurrent GVT还超越了12个单独调优的GNN模型至少3.30%,证明了其在全归纳学习方面的优越性。这些实验结果表明,视图空间是全归纳节点表示学习的一个有效基础。

🎯 应用场景

该研究成果可应用于各种需要跨数据集进行图分析的场景,例如药物发现、社交网络分析、知识图谱推理等。通过预训练一个通用的图神经网络模型,可以快速部署到新的数据集上,降低了模型训练和部署的成本。此外,该方法还有助于提高图神经网络的可解释性,因为视图空间提供了一种统一的图表示框架。

📄 摘要(原文)

Generalizing a pretrained model to unseen datasets without retraining is an essential step toward a foundation model. However, achieving such cross-dataset, fully inductive inference is difficult in graph-structured data where feature spaces vary widely in both dimensionality and semantics. Any transformation in the feature space can easily violate the inductive applicability to unseen datasets, strictly limiting the design space of a graph model. In this work, we introduce the view space, a novel representational axis in which arbitrary graphs can be naturally encoded in a unified manner. We then propose Graph View Transformation (GVT), a node- and feature-permutation-equivariant mapping in the view space. GVT serves as the building block for Recurrent GVT, a fully inductive model for node representation learning. Pretrained on OGBN-Arxiv and evaluated on 27 node-classification benchmarks, Recurrent GVT outperforms GraphAny, the prior fully inductive graph model, by +8.93% and surpasses 12 individually tuned GNNs by at least +3.30%. These results establish the view space as a principled and effective ground for fully inductive node representation learning.