Quantizing Text-attributed Graphs for Semantic-Structural Integration

📄 arXiv: 2507.19526v1 📥 PDF

作者: Jianyuan Bo, Hao Wu, Yuan Fang

分类: cs.LG, cs.AI

发布日期: 2025-07-20

备注: Accepted at KDD'2025


💡 一句话要点

提出STAG框架以解决图结构信息量化问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 文本属性图 大型语言模型 自监督学习 图结构量化 零样本迁移学习 节点分类 KL散度

📋 核心要点

  1. 现有方法在将图结构信息嵌入大型语言模型时面临高昂的计算成本和信息丢失问题。
  2. 本文提出STAG框架,通过自监督学习将图结构信息量化为离散标记,支持零样本迁移学习。
  3. 实验结果显示,STAG在多个节点分类任务上表现优异,超越了现有基线,兼容不同的LLM架构。

📝 摘要(中文)

文本属性图(TAGs)作为一种强大的表示方式,能够有效建模复杂关系。然而,现有方法在将结构信息嵌入大型语言模型(LLMs)时面临重大挑战,通常需要昂贵的对齐机制或手动图形表述,且往往会丢失关键的结构细节。此外,这些方法通常依赖于源领域的标注数据,限制了其适应性。为此,本文提出了一种新颖的自监督框架STAG,直接将图结构信息量化为离散标记,采用软分配和KL散度引导的量化方法,解决了图数据缺乏自然标记结构的问题。实验结果表明,该方法在多个节点分类基准上实现了最先进的性能,并支持真正的零样本迁移学习,无需源领域的标注数据。

🔬 方法详解

问题定义:本文旨在解决如何将图结构信息有效嵌入大型语言模型的问题。现有方法通常依赖昂贵的对齐机制或手动图形表述,导致信息丢失和适应性不足。

核心思路:STAG框架通过自监督学习直接将图结构信息量化为离散标记,采用软分配和KL散度引导的量化方法,旨在克服图数据缺乏自然标记结构的挑战。

技术框架:STAG的整体架构包括数据预处理、图结构信息量化、标记生成和模型训练四个主要模块。首先对图数据进行预处理,然后通过量化模块将结构信息转化为离散标记,接着生成标记并进行模型训练。

关键创新:STAG的主要创新在于其量化方法的设计,采用软分配和KL散度引导,区别于传统的硬分配量化方式,能够更好地处理图数据的复杂性。

关键设计:在参数设置上,STAG使用了固定的代码本进行量化,损失函数结合了重构损失和KL散度损失,以确保量化后的信息尽可能保留原始结构特征。

🖼️ 关键图片

fig_0

📊 实验亮点

STAG框架在多个节点分类基准上实现了最先进的性能,相较于现有方法,提升幅度显著,尤其在零样本迁移学习场景中表现出色,证明了其在无标注数据情况下的有效性。

🎯 应用场景

该研究的潜在应用领域包括社交网络分析、推荐系统、知识图谱构建等。通过有效地将图结构信息与大型语言模型结合,STAG能够提升图学习的灵活性和适应性,推动相关领域的研究和应用发展。

📄 摘要(原文)

Text-attributed graphs (TAGs) have emerged as a powerful representation for modeling complex relationships across diverse domains. With the rise of large language models (LLMs), there is growing interest in leveraging their capabilities for graph learning. However, current approaches face significant challenges in embedding structural information into LLM-compatible formats, requiring either computationally expensive alignment mechanisms or manual graph verbalization techniques that often lose critical structural details. Moreover, these methods typically require labeled data from source domains for effective transfer learning, significantly constraining their adaptability. We propose STAG, a novel self-supervised framework that directly quantizes graph structural information into discrete tokens using a frozen codebook. Unlike traditional quantization approaches, our method employs soft assignment and KL divergence guided quantization to address the unique challenges of graph data, which lacks natural tokenization structures. Our framework enables both LLM-based and traditional learning approaches, supporting true zero-shot transfer learning without requiring labeled data even in the source domain. Extensive experiments demonstrate state-of-the-art performance across multiple node classification benchmarks while maintaining compatibility with different LLM architectures, offering an elegant solution to bridging graph learning with LLMs.