Graph Foundation Models: A Comprehensive Survey

📄 arXiv: 2505.15116v1 📥 PDF

作者: Zehong Wang, Zheyuan Liu, Tianyi Ma, Jiazheng Li, Zheyuan Zhang, Xingbo Fu, Yiyang Li, Zhengqing Yuan, Wei Song, Yijun Ma, Qingkai Zeng, Xiusi Chen, Jianan Zhao, Jundong Li, Meng Jiang, Pietro Lio, Nitesh Chawla, Chuxu Zhang, Yanfang Ye

分类: cs.LG, cs.AI, cs.SI

发布日期: 2025-05-21

备注: Github Repo: https://github.com/Zehong-Wang/Awesome-Foundation-Models-on-Graphs. 93 pages, 438 references

🔗 代码/项目: GITHUB


💡 一句话要点

图基础模型综述:统一框架、泛化范围与未来方向

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 图神经网络 图基础模型 预训练 迁移学习 图学习 知识图谱 对比学习

📋 核心要点

  1. 现有图学习方法难以实现跨任务和领域的泛化,缺乏通用性和可扩展性。
  2. 图基础模型(GFM)通过大规模预训练和迁移学习,为结构化数据带来通用智能。
  3. 该综述提出了GFM的模块化框架,并探讨了其理论基础、挑战和未来方向。

📝 摘要(中文)

图结构数据广泛存在于社交网络、生物系统、知识图谱和推荐系统等领域。虽然基础模型已经通过大规模预训练和泛化改变了自然语言处理、视觉和多模态学习,但将这些能力扩展到具有非欧几里德结构和复杂关系语义的图数据带来了独特的挑战和机遇。为此,图基础模型(GFM)旨在将可扩展的、通用的智能引入结构化数据,从而实现跨图中心任务和领域的广泛迁移。本综述全面概述了GFM,在一个模块化框架下统一了各种研究工作,该框架包括三个关键组成部分:骨干架构、预训练策略和适应机制。我们根据GFM的泛化范围(通用、任务特定和领域特定)对其进行分类,并回顾了每种类别中的代表性方法、关键创新和理论见解。除了方法论之外,我们还研究了包括可迁移性和涌现能力在内的理论基础,并强调了结构对齐、异构性、可扩展性和评估等关键挑战。GFM位于图学习和通用人工智能的交叉点,有望成为结构化数据开放式推理的基础设施。本综述总结了当前的进展,并概述了未来的方向,以指导这一快速发展领域的研究。

🔬 方法详解

问题定义:现有图学习方法通常针对特定任务或领域设计,缺乏通用性和可迁移性。它们难以处理大规模图数据,并且在面对异构图结构时表现不佳。因此,如何构建能够跨任务、跨领域泛化的图基础模型,成为一个重要的研究问题。

核心思路:论文的核心思路是将图基础模型分解为三个关键组成部分:骨干架构、预训练策略和适应机制。通过对这三个模块进行解耦和分析,可以更好地理解现有GFM的优势和局限性,并为未来的研究提供指导。此外,论文还强调了GFM的泛化能力,并根据其泛化范围将其分为通用、任务特定和领域特定三类。

技术框架:该综述论文并没有提出新的技术框架,而是对现有图基础模型进行了系统的分类和总结。它将GFM的构建过程分为三个阶段:首先,选择合适的骨干架构,例如图神经网络(GNN)或图Transformer;其次,设计有效的预训练策略,例如对比学习或掩码节点预测;最后,采用适当的适应机制,例如微调或提示学习,将预训练模型应用于下游任务。

关键创新:该综述的关键创新在于提出了一个统一的模块化框架,用于理解和比较不同的图基础模型。该框架将GFM分解为骨干架构、预训练策略和适应机制三个关键组成部分,从而可以更清晰地分析不同GFM的优缺点,并为未来的研究提供指导。此外,该综述还对GFM的泛化能力进行了分类,并探讨了其理论基础和挑战。

关键设计:由于是综述论文,因此没有具体的参数设置、损失函数或网络结构等技术细节。但是,论文强调了预训练策略的重要性,例如对比学习和掩码节点预测等方法,这些方法可以有效地学习图数据的表示,并提高模型的泛化能力。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该综述总结了现有图基础模型的研究进展,并对各种方法进行了分类和比较。虽然没有提供具体的实验结果,但它指出了GFM在不同任务和领域中的潜在应用,并强调了其在提高模型泛化能力方面的优势。此外,该综述还讨论了GFM面临的挑战,例如结构对齐、异构性和可扩展性等,为未来的研究提供了方向。

🎯 应用场景

图基础模型在多个领域具有广泛的应用前景,包括社交网络分析、生物信息学、知识图谱推理、推荐系统和药物发现等。通过预训练和迁移学习,GFM可以有效地解决这些领域中的各种图学习任务,例如节点分类、链接预测和图分类等。未来,GFM有望成为结构化数据分析的基础设施,为各种人工智能应用提供强大的支持。

📄 摘要(原文)

Graph-structured data pervades domains such as social networks, biological systems, knowledge graphs, and recommender systems. While foundation models have transformed natural language processing, vision, and multimodal learning through large-scale pretraining and generalization, extending these capabilities to graphs -- characterized by non-Euclidean structures and complex relational semantics -- poses unique challenges and opens new opportunities. To this end, Graph Foundation Models (GFMs) aim to bring scalable, general-purpose intelligence to structured data, enabling broad transfer across graph-centric tasks and domains. This survey provides a comprehensive overview of GFMs, unifying diverse efforts under a modular framework comprising three key components: backbone architectures, pretraining strategies, and adaptation mechanisms. We categorize GFMs by their generalization scope -- universal, task-specific, and domain-specific -- and review representative methods, key innovations, and theoretical insights within each category. Beyond methodology, we examine theoretical foundations including transferability and emergent capabilities, and highlight key challenges such as structural alignment, heterogeneity, scalability, and evaluation. Positioned at the intersection of graph learning and general-purpose AI, GFMs are poised to become foundational infrastructure for open-ended reasoning over structured data. This survey consolidates current progress and outlines future directions to guide research in this rapidly evolving field. Resources are available at https://github.com/Zehong-Wang/Awesome-Foundation-Models-on-Graphs.