Knowledge-Aware Self-Correction in Language Models via Structured Memory Graphs

📄 arXiv: 2507.04625v1 📥 PDF

作者: Swayamjit Saha

分类: cs.CL, cs.AI

发布日期: 2025-07-07

备注: 8 pages, 4 figures


💡 一句话要点

提出基于结构化记忆图的知识感知自校正框架,提升语言模型的事实准确性

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 语言模型 知识图谱 自校正 事实性错误 RDF三元组

📋 核心要点

  1. 大型语言模型虽然强大,但存在生成不准确事实的“幻觉”问题,影响其可靠性。
  2. 利用基于RDF三元组的结构化记忆图,对语言模型的输出进行后处理,实现知识感知的自校正。
  3. 在DistilGPT-2模型上进行了实验,结果表明该方法在纠正简单事实性错误方面具有潜力。

📝 摘要(中文)

大型语言模型(LLM)功能强大,但容易产生事实性错误,通常被称为幻觉。本文提出了一种轻量级、可解释的框架,用于基于RDF三元组的结构化记忆图,对LLM输出进行知识感知的自校正。该方法无需重新训练或微调,通过外部语义记忆对模型输出进行后处理,并纠正事实不一致之处。我们使用DistilGPT-2演示了该方法,并在简单的factual prompts上展示了有希望的结果。

🔬 方法详解

问题定义:大型语言模型(LLMs)在生成文本时,经常会产生与事实不符的内容,即“幻觉”。现有的纠正方法通常需要重新训练或微调模型,计算成本高昂,且缺乏可解释性。本文旨在解决LLM生成文本中事实性错误的问题,提出一种轻量级、可解释的自校正框架。

核心思路:核心思路是利用外部知识库来验证和修正LLM生成的文本。具体来说,构建一个基于RDF三元组的结构化记忆图,作为外部知识的表示。通过将LLM的输出与记忆图中的知识进行比对,检测并纠正事实性错误。这种方法无需修改LLM本身,而是通过后处理的方式实现自校正。

技术框架:该框架主要包含以下几个阶段:1) LLM生成文本:给定prompt,LLM生成初始文本输出。2) 知识抽取:从LLM生成的文本中抽取关键实体和关系,构建查询。3) 知识检索:利用查询在结构化记忆图中检索相关知识。4) 事实验证:将LLM生成的事实与检索到的知识进行比对,判断是否存在矛盾。5) 文本修正:如果发现矛盾,则利用记忆图中的知识对LLM生成的文本进行修正。

关键创新:该方法的关键创新在于利用结构化记忆图进行知识感知的自校正。与传统的基于文本的知识库相比,结构化记忆图能够更准确地表示知识,并支持更高效的知识检索。此外,该方法无需重新训练或微调LLM,降低了计算成本,并提高了可解释性。

关键设计:论文中,结构化记忆图基于RDF三元组构建,每个三元组表示一个事实。知识检索过程采用基于图的查询算法,例如SPARQL。文本修正过程采用基于规则的方法,例如,如果LLM生成的事实与记忆图中的事实相矛盾,则用记忆图中的事实替换LLM生成的事实。具体的参数设置和损失函数未知,因为该方法主要关注后处理,而非模型训练。

📊 实验亮点

该研究在DistilGPT-2模型上进行了实验,结果表明,该方法能够有效地纠正LLM生成文本中的事实性错误。虽然论文中没有给出具体的性能数据和提升幅度,但实验结果表明,该方法在简单的factual prompts上具有良好的效果,验证了其可行性。

🎯 应用场景

该研究成果可应用于各种需要高事实准确性的自然语言生成任务,例如问答系统、知识图谱构建、新闻生成等。通过利用外部知识库进行自校正,可以显著提高生成文本的可靠性,减少错误信息的传播。未来,该方法可以扩展到更复杂的语言模型和更广泛的知识领域。

📄 摘要(原文)

Large Language Models (LLMs) are powerful yet prone to generating factual errors, commonly referred to as hallucinations. We present a lightweight, interpretable framework for knowledge-aware self-correction of LLM outputs using structured memory graphs based on RDF triples. Without retraining or fine-tuning, our method post-processes model outputs and corrects factual inconsistencies via external semantic memory. We demonstrate the approach using DistilGPT-2 and show promising results on simple factual prompts.