From RAG to Memory: Non-Parametric Continual Learning for Large Language Models

📄 arXiv: 2502.14802v2 📥 PDF

作者: Bernal Jiménez Gutiérrez, Yiheng Shu, Weijian Qi, Sizhe Zhou, Yu Su

分类: cs.CL, cs.AI

发布日期: 2025-02-20 (更新: 2025-06-19)

备注: ICML 2025. Code and data are available at: https://github.com/OSU-NLP-Group/HippoRAG

🔗 代码/项目: GITHUB


💡 一句话要点

提出HippoRAG 2,提升LLM在事实、推理和关联记忆任务上的非参数持续学习能力。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 检索增强生成 持续学习 大型语言模型 知识图谱 个性化PageRank

📋 核心要点

  1. 现有RAG方法依赖向量检索,难以模拟人类长期记忆的动态关联性,导致在基本事实记忆任务上性能下降。
  2. HippoRAG 2通过更深入的段落集成和LLM在线使用,增强了个性化PageRank算法,更接近人类长期记忆的有效性。
  3. HippoRAG 2在关联记忆任务上比现有最佳嵌入模型提升7%,并在事实知识和语义理解记忆方面表现更优。

📝 摘要(中文)

人类智能的关键特征在于持续获取、组织和利用知识的能力,人工智能系统必须近似这种能力才能充分发挥潜力。鉴于大型语言模型(LLM)持续学习的挑战,检索增强生成(RAG)已成为引入新信息的主要方式。然而,它对向量检索的依赖阻碍了其模仿人类长期记忆的动态和互联本质。最近的RAG方法通过知识图等各种结构来增强向量嵌入,以解决一些差距,即语义理解和关联性。但是,它们在更基本的事实记忆任务上的性能大大低于标准RAG。我们解决了这种意外的性能下降,并提出了HippoRAG 2,该框架在事实、语义理解和关联记忆任务上全面优于标准RAG。HippoRAG 2建立在HippoRAG中使用的个性化PageRank算法的基础上,并通过更深入的段落集成和更有效的LLM在线使用来增强它。这种组合使该RAG系统更接近人类长期记忆的有效性,在关联记忆任务上实现了比最先进的嵌入模型高7%的改进,同时还表现出卓越的事实知识和语义理解记忆能力。这项工作为LLM的非参数持续学习铺平了道路。

🔬 方法详解

问题定义:现有RAG方法在持续学习场景中,特别是处理事实性知识时,存在记忆能力不足的问题。它们依赖于向量检索,无法有效捕捉知识之间的关联,导致在需要关联记忆和语义理解的任务中表现不佳。此外,为了增强关联性而引入的复杂结构,反而降低了在基本事实记忆任务上的性能。

核心思路:HippoRAG 2的核心思路是通过改进RAG框架中的知识表示和检索机制,使其更接近人类长期记忆的工作方式。具体来说,它利用个性化PageRank算法来构建知识图谱,并在此基础上进行更深入的段落集成和LLM在线使用,从而增强知识之间的关联性和语义理解能力。

技术框架:HippoRAG 2的整体框架包括以下几个主要模块:1) 知识图谱构建:利用个性化PageRank算法,基于文档集合构建知识图谱,节点表示文档段落,边表示段落之间的关联性。2) 段落集成:对知识图谱中的段落进行更深入的集成,以增强知识的连贯性和完整性。3) LLM在线使用:在检索过程中,利用LLM进行在线推理和知识融合,以提高检索的准确性和相关性。4) 检索增强生成:利用检索到的知识,结合LLM生成最终的答案。

关键创新:HippoRAG 2的关键创新在于其更深入的段落集成和更有效的LLM在线使用。传统的RAG方法通常只关注文档级别的检索,而HippoRAG 2则深入到段落级别,从而能够更精细地捕捉知识之间的关联。此外,HippoRAG 2还利用LLM进行在线推理和知识融合,从而能够更好地理解用户的意图,并生成更准确和相关的答案。

关键设计:HippoRAG 2的关键设计包括:1) 个性化PageRank算法的参数设置,用于控制知识图谱的构建。2) 段落集成的策略,例如如何选择和组合相关的段落。3) LLM在线使用的prompt设计,用于引导LLM进行推理和知识融合。4) 检索增强生成过程中的解码策略,用于生成高质量的答案。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

HippoRAG 2在关联记忆任务上比最先进的嵌入模型提升了7%,同时在事实知识和语义理解记忆方面也表现出卓越的性能。这些结果表明,HippoRAG 2能够更有效地模拟人类长期记忆的工作方式,从而提高LLM在各种知识密集型任务中的性能。

🎯 应用场景

HippoRAG 2可应用于需要持续学习和知识更新的各种场景,例如智能客服、知识问答、智能助手等。它能够帮助LLM更好地理解和利用新知识,从而提高其在各种任务中的性能。此外,该研究也为LLM的非参数持续学习提供了新的思路和方法。

📄 摘要(原文)

Our ability to continuously acquire, organize, and leverage knowledge is a key feature of human intelligence that AI systems must approximate to unlock their full potential. Given the challenges in continual learning with large language models (LLMs), retrieval-augmented generation (RAG) has become the dominant way to introduce new information. However, its reliance on vector retrieval hinders its ability to mimic the dynamic and interconnected nature of human long-term memory. Recent RAG approaches augment vector embeddings with various structures like knowledge graphs to address some of these gaps, namely sense-making and associativity. However, their performance on more basic factual memory tasks drops considerably below standard RAG. We address this unintended deterioration and propose HippoRAG 2, a framework that outperforms standard RAG comprehensively on factual, sense-making, and associative memory tasks. HippoRAG 2 builds upon the Personalized PageRank algorithm used in HippoRAG and enhances it with deeper passage integration and more effective online use of an LLM. This combination pushes this RAG system closer to the effectiveness of human long-term memory, achieving a 7% improvement in associative memory tasks over the state-of-the-art embedding model while also exhibiting superior factual knowledge and sense-making memory capabilities. This work paves the way for non-parametric continual learning for LLMs. Code and data are available at https://github.com/OSU-NLP-Group/HippoRAG.