Reducing Hallucinations in Language Model-based SPARQL Query Generation Using Post-Generation Memory Retrieval

📄 arXiv: 2502.13369v2 📥 PDF

作者: Aditya Sharma, Luis Lara, Christopher J. Pal, Amal Zouaq

分类: cs.CL

发布日期: 2025-02-19 (更新: 2025-05-21)


💡 一句话要点

提出PGMR框架,利用后生成记忆检索减少LLM在SPARQL查询生成中的幻觉问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: SPARQL查询生成 知识图谱 大型语言模型 幻觉 记忆检索 自然语言处理 信息检索

📋 核心要点

  1. 大型语言模型在SPARQL查询生成中易产生幻觉,尤其是在生成知识图谱URI时,导致检索结果不准确。
  2. PGMR框架通过后生成记忆检索,从知识图谱中检索相关元素,以此修正LLM生成的SPARQL查询,减少幻觉。
  3. 实验表明,PGMR在多个数据集和LLM上表现出色,显著降低了URI幻觉,提升了SPARQL查询生成的准确性。

📝 摘要(中文)

本文提出了一种名为PGMR(Post-Generation Memory Retrieval)的模块化框架,旨在通过整合非参数记忆模块来检索知识图谱(KG)元素,从而增强基于大型语言模型(LLM)的SPARQL查询生成能力。大型语言模型在生成SPARQL查询时,容易出现幻觉和超出分布范围的错误,尤其是在生成基于内部参数知识的KG元素(如URI)时。PGMR通过检索KG元素来缓解这一问题。实验结果表明,PGMR在不同的数据集、数据分布和LLM上均表现出强大的性能。值得注意的是,PGMR显著减少了URI幻觉,在某些情况下几乎消除了该问题。

🔬 方法详解

问题定义:论文旨在解决大型语言模型(LLM)在生成SPARQL查询时出现的幻觉问题,特别是当LLM需要生成知识图谱(KG)中的URI时,由于依赖内部参数知识,容易产生看似合理但实际上错误的URI,导致查询结果不准确。现有方法难以有效抑制这种幻觉现象。

核心思路:论文的核心思路是在LLM生成SPARQL查询后,引入一个非参数的记忆模块,从知识图谱中检索相关的KG元素(例如URI),并利用检索到的信息来修正LLM生成的查询。这样可以避免LLM完全依赖其内部知识,从而减少幻觉的产生。

技术框架:PGMR框架主要包含以下几个阶段:1) LLM生成SPARQL查询;2) 从生成的查询中提取需要验证的KG元素(例如URI);3) 使用提取的KG元素作为查询,从知识图谱的记忆模块中检索相关信息;4) 利用检索到的信息,对LLM生成的SPARQL查询进行修正,例如替换错误的URI。

关键创新:PGMR的关键创新在于引入了后生成记忆检索机制,将LLM的生成过程与外部知识图谱的检索过程相结合。与传统的端到端方法不同,PGMR允许LLM利用其强大的生成能力,同时通过外部知识来约束其生成结果,从而减少幻觉。

关键设计:PGMR框架的关键设计包括:1) 如何有效地从生成的SPARQL查询中提取需要验证的KG元素;2) 如何构建和维护知识图谱的记忆模块,以便快速准确地检索相关信息;3) 如何将检索到的信息有效地融入到LLM生成的SPARQL查询中,例如使用注意力机制或者直接替换错误的URI。具体的参数设置、损失函数和网络结构等细节在论文中未明确给出,属于未知信息。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,PGMR框架在多个数据集上均取得了显著的性能提升,尤其是在减少URI幻觉方面。在某些场景下,PGMR几乎完全消除了URI幻觉问题。此外,PGMR在不同的LLM上都表现出良好的泛化能力,证明了其鲁棒性和有效性。具体的性能数据和对比基线在论文中进行了详细的展示。

🎯 应用场景

该研究成果可应用于智能问答系统、知识图谱检索、语义搜索等领域。通过减少SPARQL查询生成中的幻觉,可以提高信息检索的准确性和可靠性,从而提升用户体验,并为知识图谱的应用提供更可靠的技术支持。未来,该方法有望扩展到其他自然语言处理任务中,例如文本摘要、机器翻译等。

📄 摘要(原文)

The ability to generate SPARQL queries from natural language questions is crucial for ensuring efficient and accurate retrieval of structured data from knowledge graphs (KG). While large language models (LLMs) have been widely adopted for SPARQL query generation, they are often susceptible to hallucinations and out-of-distribution errors when producing KG elements like Uniform Resource Identifiers (URIs) based on internal parametric knowledge. This often results in content that appears plausible but is factually incorrect, posing significant challenges for their use in real-world information retrieval (IR) applications. This has led to increased research aimed at detecting and mitigating such errors. In this paper, we introduce PGMR (Post-Generation Memory Retrieval), a modular framework that incorporates a non-parametric memory module to retrieve KG elements and enhance LLM-based SPARQL query generation. Our experimental results indicate that PGMR consistently delivers strong performance across diverse datasets, data distributions, and LLMs. Notably, PGMR significantly mitigates URI hallucinations, nearly eliminating the problem in several scenarios.