RFKG-CoT: Relation-Driven Adaptive Hop-count Selection and Few-Shot Path Guidance for Knowledge-Aware QA
作者: Chao Zhang, Minghan Li, Tianrui Lv, Guodong Zhou
分类: cs.CL, cs.AI
发布日期: 2025-12-17
备注: 9pages, 5 figures, accepted by AAAI 2026
💡 一句话要点
提出RFKG-CoT以解决知识密集型问答中的幻觉问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 知识图谱 问答系统 自适应选择 推理路径 少量学习 大型语言模型 准确性提升
📋 核心要点
- 现有方法在知识密集型问答中存在跳数选择僵化和推理路径利用不足的问题,导致生成的答案不够可靠。
- RFKG-CoT通过关系驱动的自适应跳数选择器和少量示例的上下文学习路径指导机制,动态调整推理步骤并增强理解能力。
- 在四个KGQA基准上,RFKG-CoT的准确率较KG-CoT提升了最高14.7个百分点,验证了方法的有效性。
📝 摘要(中文)
大型语言模型(LLMs)在知识密集型问答中常因参数知识限制而产生幻觉。现有方法如KG-CoT通过整合知识图谱(KG)路径提高可靠性,但在跳数选择上过于僵化(仅依赖问题驱动)且推理路径利用不足(缺乏指导)。为此,本文提出RFKG-CoT:首先,用关系驱动的自适应跳数选择器替代僵化的跳数选择器,动态调整推理步骤;其次,引入少量示例的上下文学习路径指导机制,通过“问题-路径-答案”格式构建示例,增强LLMs理解推理路径的能力。实验表明,RFKG-CoT在四个KGQA基准上提高了准确率,最高提升14.7个百分点(Llama2-7B在WebQSP上)。
🔬 方法详解
问题定义:本文旨在解决大型语言模型在知识密集型问答中因参数知识限制而产生的幻觉问题。现有方法如KG-CoT在跳数选择上过于僵化,且推理路径的利用率不高,导致生成的答案不够准确。
核心思路:RFKG-CoT的核心思路是引入关系驱动的自适应跳数选择器,动态调整推理步骤,同时通过少量示例的上下文学习路径指导机制,帮助模型更好地理解推理路径。这种设计旨在提高模型的推理能力和答案的可靠性。
技术框架:RFKG-CoT的整体架构包括两个主要模块:关系驱动的自适应跳数选择器和少量示例的上下文学习路径指导机制。前者通过激活KG关系动态调整推理步骤,后者则通过“问题-路径-答案”格式构建示例,增强模型的推理能力。
关键创新:RFKG-CoT的主要创新在于关系驱动的自适应跳数选择器和少量示例的上下文学习路径指导机制的结合。这一设计使得模型能够根据具体问题灵活调整推理步骤,从而与现有方法形成本质区别。
关键设计:在关键设计上,关系选择器通过关系掩码动态激活不同的KG关系,确保选择的跳数与问题相关。同时,路径指导机制通过构建示例来增强模型的上下文理解能力,提升推理的准确性。具体的参数设置和损失函数设计在实验中进行了详细验证。
🖼️ 关键图片
📊 实验亮点
RFKG-CoT在四个KGQA基准上表现出色,尤其是在WebQSP数据集上,Llama2-7B模型的准确率提升了最高14.7个百分点,相较于KG-CoT显著提高了模型的可靠性和答案的准确性,验证了方法的有效性和创新性。
🎯 应用场景
RFKG-CoT的研究成果在知识密集型问答系统中具有广泛的应用潜力,尤其是在需要高准确率和可靠性的场景,如智能客服、教育辅导和信息检索等领域。通过提升模型的推理能力,该方法能够为用户提供更为准确和可信的答案,推动智能问答技术的发展。
📄 摘要(原文)
Large language models (LLMs) often generate hallucinations in knowledge-intensive QA due to parametric knowledge limitations. While existing methods like KG-CoT improve reliability by integrating knowledge graph (KG) paths, they suffer from rigid hop-count selection (solely question-driven) and underutilization of reasoning paths (lack of guidance). To address this, we propose RFKG-CoT: First, it replaces the rigid hop-count selector with a relation-driven adaptive hop-count selector that dynamically adjusts reasoning steps by activating KG relations (e.g., 1-hop for direct "brother" relations, 2-hop for indirect "father-son" chains), formalized via a relation mask. Second, it introduces a few-shot in-context learning path guidance mechanism with CoT (think) that constructs examples in a "question-paths-answer" format to enhance LLMs' ability to understand reasoning paths. Experiments on four KGQA benchmarks show RFKG-CoT improves accuracy by up to 14.7 pp (Llama2-7B on WebQSP) over KG-CoT. Ablations confirm the hop-count selector and the path prompt are complementary, jointly transforming KG evidence into more faithful answers.