Ontology-Enhanced Knowledge Graph Completion using Large Language Models

📄 arXiv: 2507.20643v2 📥 PDF

作者: Wenbin Guo, Xin Wang, Jiaoyan Chen, Zhao Li, Zirui Chen

分类: cs.CL, cs.AI

发布日期: 2025-07-28 (更新: 2025-10-21)


💡 一句话要点

提出OL-KGC:一种本体增强的LLM知识图谱补全方法

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 知识图谱补全 大型语言模型 本体增强 神经感知 知识推理

📋 核心要点

  1. 现有基于LLM的知识图谱补全方法依赖隐式知识表示,易传播错误知识,推理能力受限。
  2. OL-KGC融合神经感知结构信息与本体知识,利用LLM增强知识逻辑理解与推理能力。
  3. 实验表明,OL-KGC在多个基准数据集上显著优于现有方法,达到SOTA性能。

📝 摘要(中文)

大型语言模型(LLMs)已被广泛应用于知识图谱补全(KGC)任务,并展现出显著的研究进展。然而,由于基于深度神经网络架构的黑盒模型特性,当前基于LLM的KGC方法依赖于隐式的知识表示,并且会并行传播错误的知识,从而阻碍了它们产生决定性的推理结果。本文旨在将神经感知结构信息与本体知识相结合,利用LLM的强大能力来实现对知识内在逻辑的更深入理解。为此,我们提出了一种使用LLM的本体增强KGC方法——OL-KGC。它首先利用神经感知机制有效地将结构信息嵌入到文本空间中,然后使用自动提取算法从需要补全的知识图谱(KGs)中检索本体知识,并将其转换为LLM可理解的文本格式,以提供逻辑指导。在三个广泛使用的基准数据集——FB15K-237、UMLS和WN18RR上进行了大量实验。实验结果表明,OL-KGC在多个评估指标上显著优于现有的主流KGC方法,实现了最先进的性能。

🔬 方法详解

问题定义:知识图谱补全(KGC)旨在预测知识图谱中缺失的三元组关系。现有基于LLM的KGC方法虽然取得了进展,但由于LLM的黑盒特性,它们依赖于隐式知识表示,容易受到错误知识传播的影响,导致推理结果不准确。因此,如何利用LLM的强大能力,同时克服其在知识推理方面的局限性,是本文要解决的核心问题。

核心思路:OL-KGC的核心思路是将神经感知结构信息与本体知识相结合,从而为LLM提供更明确的逻辑指导。通过神经感知机制,将知识图谱的结构信息嵌入到文本空间中,使得LLM能够更好地理解实体和关系之间的联系。同时,利用本体知识来约束LLM的推理过程,避免其产生不符合逻辑的结论。这种结合的方式旨在充分发挥LLM的优势,同时弥补其在知识推理方面的不足。

技术框架:OL-KGC的整体框架主要包含以下几个阶段:1) 神经感知结构信息嵌入:利用图神经网络等方法,将知识图谱的结构信息嵌入到文本空间中。2) 本体知识提取:从知识图谱中自动提取本体知识,例如实体类型、关系类型、实体之间的关系约束等。3) 本体知识转换:将提取的本体知识转换为LLM可理解的文本格式,例如自然语言描述或规则。4) LLM推理:将嵌入的结构信息和转换后的本体知识输入到LLM中,进行知识图谱补全。

关键创新:OL-KGC的关键创新在于将神经感知结构信息与本体知识相结合,为LLM提供更明确的逻辑指导。与现有方法相比,OL-KGC不仅利用了LLM的强大语言建模能力,还通过引入结构信息和本体知识,增强了LLM的知识推理能力。这种结合的方式使得OL-KGC能够更准确地预测知识图谱中缺失的关系。

关键设计:在神经感知结构信息嵌入阶段,可以使用不同的图神经网络模型,例如GCN、GAT等。在本体知识提取阶段,可以使用基于规则或基于机器学习的方法。在本体知识转换阶段,需要设计合适的文本格式,使得LLM能够理解本体知识的含义。在LLM推理阶段,可以使用不同的LLM模型,例如BERT、GPT等。损失函数的设计需要考虑知识图谱补全的特点,例如可以使用负采样方法来提高模型的性能。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

OL-KGC在FB15K-237、UMLS和WN18RR三个基准数据集上进行了实验,结果表明OL-KGC在多个评估指标上显著优于现有的主流KGC方法,实现了最先进的性能。具体来说,OL-KGC在MRR、Hits@1、Hits@3和Hits@10等指标上均取得了显著提升,证明了其有效性。

🎯 应用场景

OL-KGC可应用于智能问答、推荐系统、语义搜索等领域。通过更准确地补全知识图谱,可以提高这些应用的性能和用户体验。例如,在智能问答中,可以利用补全后的知识图谱来更准确地回答用户的问题。在推荐系统中,可以利用补全后的知识图谱来更准确地预测用户的兴趣。该研究的未来影响在于推动知识图谱补全技术的发展,并促进其在各个领域的应用。

📄 摘要(原文)

Large Language Models (LLMs) have been extensively adopted in Knowledge Graph Completion (KGC), showcasing significant research advancements. However, as black-box models driven by deep neural architectures, current LLM-based KGC methods rely on implicit knowledge representation with parallel propagation of erroneous knowledge, thereby hindering their ability to produce conclusive and decisive reasoning outcomes. We aim to integrate neural-perceptual structural information with ontological knowledge, leveraging the powerful capabilities of LLMs to achieve a deeper understanding of the intrinsic logic of the knowledge. We propose an ontology enhanced KGC method using LLMs -- OL-KGC. It first leverages neural perceptual mechanisms to effectively embed structural information into the textual space, and then uses an automated extraction algorithm to retrieve ontological knowledge from the knowledge graphs (KGs) that needs to be completed, which is further transformed into a textual format comprehensible to LLMs for providing logic guidance. We conducted extensive experiments on three widely-used benchmarks -- FB15K-237, UMLS and WN18RR. The experimental results demonstrate that OL-KGC significantly outperforms existing mainstream KGC methods across multiple evaluation metrics, achieving state-of-the-art performance.