Learning Chain Of Thoughts Prompts for Predicting Entities, Relations, and even Literals on Knowledge Graphs
作者: Alkid Baci, Luke Friedrichs, Caglar Demir, N'Dah Jean Kouagou, Axel-Cyrille Ngonga Ngomo
分类: cs.CL, cs.AI
发布日期: 2026-04-14
🔗 代码/项目: GITHUB
💡 一句话要点
提出RALP以解决知识图谱中链式推理问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 知识图谱 链式思维 提示学习 贝叶斯优化 推理任务 实体预测 关系预测
📋 核心要点
- 现有的知识图谱嵌入模型在处理未见实体和关系时表现不佳,限制了其在动态图中的应用。
- 论文提出RALP,通过学习链式思维提示,将链接预测转化为提示学习问题,利用少量样本进行有效推理。
- 实验结果显示,RALP在多个数据集上提升了超过5%的平均排名率(MRR),并在复杂OWL推理任务中达到了88%以上的Jaccard相似度。
📝 摘要(中文)
知识图谱嵌入(KGE)模型在链接预测方面表现良好,但在处理未见实体、关系和文字时存在困难,限制了其在动态异构图中的应用。与此相对,预训练的大型语言模型(LLMs)通过提示能够有效泛化。本文将链接预测重新定义为提示学习问题,提出了RALP,学习基于字符串的链式思维(CoT)提示作为三元组的评分函数。通过MIPRO算法的贝叶斯优化,RALP在不到30个训练样本的情况下识别有效提示,而无需梯度访问。在推理阶段,RALP预测缺失的实体、关系或整个三元组,并根据学习的提示分配置信度分数。实验结果表明,RALP在多个基准上提升了现有KGE模型的性能,尤其在复杂类表达的OWL推理任务中表现优异。
🔬 方法详解
问题定义:本文旨在解决知识图谱嵌入模型在未见实体、关系和文字上的预测困难,现有方法在动态异构图中表现不佳,限制了其应用。
核心思路:论文的核心思路是将链接预测问题重新定义为提示学习问题,通过学习链式思维提示来提高模型的泛化能力,尤其是在缺乏大量标注数据的情况下。
技术框架:RALP的整体架构包括提示学习模块和推理模块。提示学习模块通过贝叶斯优化算法识别有效的链式思维提示,而推理模块则利用这些提示进行缺失三元组的预测。
关键创新:RALP的主要创新在于将链式思维提示引入知识图谱的链接预测中,利用少量样本进行有效推理,与传统的嵌入方法形成鲜明对比。
关键设计:在参数设置上,RALP使用贝叶斯优化算法进行提示选择,损失函数设计为基于提示的评分函数,网络结构则围绕提示学习和推理模块进行优化。具体细节包括对提示的字符串表示和置信度评分机制的设计。
🖼️ 关键图片
📊 实验亮点
实验结果显示,RALP在多个基准数据集上提升了超过5%的平均排名率(MRR),在复杂OWL推理任务中达到了88%以上的Jaccard相似度,显著优于现有的知识图谱嵌入模型,展示了其在推理任务中的强大能力。
🎯 应用场景
该研究的潜在应用领域包括智能问答系统、推荐系统和知识图谱构建等。通过提高对未见实体和关系的预测能力,RALP能够在动态环境中更好地支持知识推理,具有重要的实际价值和未来影响。
📄 摘要(原文)
Knowledge graph embedding (KGE) models perform well on link prediction but struggle with unseen entities, relations, and especially literals, limiting their use in dynamic, heterogeneous graphs. In contrast, pretrained large language models (LLMs) generalize effectively through prompting. We reformulate link prediction as a prompt learning problem and introduce RALP, which learns string-based chain-of-thought (CoT) prompts as scoring functions for triples. Using Bayesian Optimization through MIPRO algorithm, RALP identifies effective prompts from fewer than 30 training examples without gradient access. At inference, RALP predicts missing entities, relations or whole triples and assigns confidence scores based on the learned prompt. We evaluate on transductive, numerical, and OWL instance retrieval benchmarks. RALP improves state-of-the-art KGE models by over 5% MRR across datasets and enhances generalization via high-quality inferred triples. On OWL reasoning tasks with complex class expressions (e.g., $\exists hasChild.Female$, $\geq 5 \; hasChild.Female$), it achieves over 88% Jaccard similarity. These results highlight prompt-based LLM reasoning as a flexible alternative to embedding-based methods. We release our implementation, training, and evaluation pipeline as open source: https://github.com/dice-group/RALP .