GLIP-OOD: Zero-Shot Graph OOD Detection with Graph Foundation Model
作者: Haoyan Xu, Zhengtao Yao, Xuzhi Zhang, Ziyi Wang, Langzhou He, Yushun Dong, Philip S. Yu, Mengyuan Li, Yue Zhao
分类: cs.LG
发布日期: 2025-04-29 (更新: 2025-05-17)
💡 一句话要点
提出GLIP-OOD,利用图基础模型实现零样本图OOD检测,无需ID数据训练。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 图神经网络 分布外检测 零样本学习 图基础模型 大型语言模型 知识迁移 异常检测
📋 核心要点
- 图数据零样本OOD检测面临关系复杂和缺乏预训练模型的挑战,现有方法难以有效识别分布外数据。
- 利用图基础模型,仅需ID和OOD标签名称即可进行OOD检测,无需任何ID数据训练,实现真正的零样本学习。
- 提出GLIP-OOD框架,使用LLM生成伪OOD标签,解决实际应用中OOD标签缺失问题,提升OOD检测精度。
📝 摘要(中文)
本文旨在解决图结构数据中的零样本OOD检测问题。现有方法在图数据上进行零样本OOD检测面临复杂关系结构和缺乏大规模预训练模型的挑战。本文利用图基础模型(GFM)首次实现了零样本图OOD检测,仅需ID和OOD类别的标签名称,即可有效进行OOD检测,性能甚至超越了依赖大量标注节点数据的有监督方法。针对OOD标签名称在现实场景中不可用的问题,本文提出了GLIP-OOD框架,利用LLM从无标签数据中生成语义信息丰富的伪OOD标签,从而使GFM能够更好地区分ID和OOD类别,实现更精确的OOD检测。据我们所知,这是第一个在完全零样本设置下实现节点级图OOD检测的方法,并在四个基准文本属性图数据集上达到了与最先进的有监督方法相当的性能。
🔬 方法详解
问题定义:论文旨在解决图结构数据上的零样本(Zero-Shot)分布外(Out-of-Distribution, OOD)检测问题。现有的图OOD检测方法通常需要大量的标注数据进行训练,这在实际应用中往往难以满足。此外,图数据的复杂关系结构也使得传统的OOD检测方法难以直接应用。因此,如何在没有ID数据训练的情况下,有效地检测图数据中的OOD样本是一个重要的挑战。
核心思路:论文的核心思路是利用图基础模型(Graph Foundation Model, GFM)的强大表示能力,以及大型语言模型(Large Language Model, LLM)的语义理解能力,来实现零样本图OOD检测。GFM能够学习到图数据的通用表示,而LLM则可以生成具有语义信息的伪OOD标签,从而帮助GFM更好地区分ID和OOD样本。这种方法的核心在于利用预训练模型的知识迁移能力,从而避免了对大量标注数据的依赖。
技术框架:GLIP-OOD框架主要包含两个阶段:伪OOD标签生成阶段和OOD检测阶段。在伪OOD标签生成阶段,首先利用LLM从无标签数据中生成候选的伪OOD标签。然后,对这些伪OOD标签进行筛选,选择语义信息丰富且与ID标签差异较大的标签。在OOD检测阶段,将ID标签和伪OOD标签输入到GFM中,GFM学习区分ID和OOD样本的表示。最后,利用GFM的输出进行OOD检测。
关键创新:论文最重要的技术创新点在于提出了一个完全零样本的图OOD检测框架,该框架不需要任何ID数据的训练,仅需ID标签名称即可进行OOD检测。此外,论文还提出了利用LLM生成伪OOD标签的方法,解决了实际应用中OOD标签缺失的问题。与现有方法的本质区别在于,现有方法通常需要大量的标注数据进行训练,而本文提出的方法则完全依赖于预训练模型的知识迁移能力。
关键设计:在伪OOD标签生成阶段,论文使用了GPT-3等大型语言模型来生成候选的伪OOD标签。为了筛选高质量的伪OOD标签,论文使用了基于语义相似度的过滤方法,选择与ID标签语义差异较大的标签。在OOD检测阶段,论文使用了Graphormer等图基础模型来学习图数据的表示。此外,论文还使用了对比学习等技术来增强GFM区分ID和OOD样本的能力。
🖼️ 关键图片
📊 实验亮点
实验结果表明,GLIP-OOD在四个基准文本属性图数据集上取得了与最先进的有监督方法相当的性能。在某些数据集上,GLIP-OOD甚至超越了有监督方法。这表明,利用图基础模型和大型语言模型,可以在零样本设置下有效地进行图OOD检测。
🎯 应用场景
该研究成果可应用于网络安全、金融风控、社交网络分析等领域。例如,在网络安全中,可以检测异常的网络流量模式;在金融风控中,可以识别欺诈交易;在社交网络分析中,可以发现虚假账号。该研究具有重要的实际价值,能够提高机器学习系统在开放环境中的安全性和可靠性。
📄 摘要(原文)
Out-of-distribution (OOD) detection is critical for ensuring the safety and reliability of machine learning systems, particularly in dynamic and open-world environments. In the vision and text domains, zero-shot OOD detection - which requires no training on in-distribution (ID) data - has advanced significantly through the use of large-scale pretrained models, such as vision-language models (VLMs) and large language models (LLMs). However, zero-shot OOD detection in graph-structured data remains largely unexplored, primarily due to the challenges posed by complex relational structures and the absence of powerful, large-scale pretrained models for graphs. In this work, we take the first step toward enabling zero-shot graph OOD detection by leveraging a graph foundation model (GFM). Our experiments show that, when provided only with class label names for both ID and OOD categories, the GFM can effectively perform OOD detection - often surpassing existing "supervised" OOD detection methods that rely on extensive labeled node data. We further address the practical scenario in which OOD label names are not available in real-world settings by introducing GLIP-OOD, a framework that uses LLMs to generate semantically informative pseudo-OOD labels from unlabeled data. These generated OOD labels allow the GFM to better separate ID and OOD classes, facilitating more precise OOD detection - all without any labeled nodes (only ID label names). To our knowledge, this is the first approach to achieve node-level graph OOD detection in a fully zero-shot setting, and it attains performance comparable to state-of-the-art supervised methods on four benchmark text-attributed graph datasets.