GAM: Hierarchical Graph-based Agentic Memory for LLM Agents

📄 arXiv: 2604.12285v1 📥 PDF

作者: Zhaofen Wu, Hanrong Zhang, Fulin Lin, Wujiang Xu, Xinran Xu, Yankai Chen, Henry Peng Zou, Shaowen Chen, Weizhi Zhang, Xue Liu, Philip S. Yu, Hongwei Wang

分类: cs.AI

发布日期: 2026-04-14

备注: 18 pages, 6 figures


💡 一句话要点

提出GAM:一种层级图结构的Agent记忆框架,解决LLM Agent长期交互中的知识保留与适应性问题。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LLM Agent 记忆管理 图神经网络 长期对话 知识表示 信息检索 分层记忆

📋 核心要点

  1. 现有LLM Agent的记忆系统在快速适应新信息和保持长期知识一致性之间存在冲突,容易受噪声干扰或难以适应变化。
  2. GAM通过分层图结构,将记忆编码和巩固解耦,利用事件进展图处理即时对话,主题关联网络存储长期知识,从而平衡适应性和稳定性。
  3. 实验表明,GAM在LoCoMo和LongDialQA数据集上,推理准确性和效率均优于现有方法,验证了其在长期对话管理中的有效性。

📝 摘要(中文)

为了维持连贯的长期交互,大型语言模型(LLM)Agent必须在获取新信息和保留先验知识之间找到平衡。现有的统一流式记忆系统虽然便于上下文更新,但容易受到瞬时噪声的干扰。相反,离散结构化记忆架构虽然能稳健地保留知识,但往往难以适应不断演变的叙事。为了解决这个问题,我们提出了GAM,一种层级图结构的Agent记忆框架,它显式地将记忆编码与巩固分离,从而有效地解决了快速上下文感知和稳定知识保留之间的冲突。通过将正在进行的对话隔离在事件进展图中,并在语义发生变化时才将其整合到主题关联网络中,我们的方法最大限度地减少了干扰,同时保持了长期一致性。此外,我们还引入了一种图引导的多因素检索策略,以提高上下文精度。在LoCoMo和LongDialQA上的实验表明,我们的方法在推理准确性和效率方面始终优于最先进的基线。

🔬 方法详解

问题定义:LLM Agent在长期对话中面临着如何有效管理和利用记忆的问题。现有的流式记忆系统容易受到噪声干扰,导致信息遗忘或混淆;而结构化记忆系统则难以适应动态变化的对话内容,无法及时更新知识。因此,如何在快速感知新信息的同时,保持长期知识的稳定性和一致性,是亟待解决的问题。

核心思路:GAM的核心思路是将记忆编码和巩固过程解耦。通过维护一个事件进展图来记录当前的对话状态,并仅在检测到语义变化时才将相关信息整合到长期记忆的主题关联网络中。这种分离的设计可以有效地减少噪声干扰,并确保长期知识的稳定性。同时,通过图结构化的记忆表示,可以更好地捕捉对话中的语义关系,提高信息检索的准确性。

技术框架:GAM框架包含两个主要的图结构:事件进展图(Event Progression Graph)和主题关联网络(Topic Associative Network)。事件进展图用于记录当前对话的事件序列,每个节点代表一个事件,边表示事件之间的关系。主题关联网络则用于存储长期知识,节点代表主题,边表示主题之间的关联。当检测到语义变化时,事件进展图中的相关信息会被整合到主题关联网络中。此外,GAM还包含一个图引导的多因素检索模块,用于从记忆中检索相关信息。

关键创新:GAM的关键创新在于其分层图结构的记忆表示和解耦的记忆管理机制。通过将记忆编码和巩固分离,GAM可以有效地平衡快速上下文感知和稳定知识保留之间的冲突。此外,图引导的多因素检索策略可以提高上下文精度,从而提升Agent的推理能力。

关键设计:GAM使用基于Transformer的模型来编码事件和主题,并使用图神经网络来学习节点表示。在记忆整合过程中,使用注意力机制来确定哪些事件应该被整合到主题关联网络中。多因素检索策略综合考虑了节点相似度、关系强度和时间衰减等因素,以提高检索的准确性。具体的参数设置和损失函数细节在论文中有详细描述。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,GAM在LoCoMo和LongDialQA数据集上均取得了显著的性能提升。在LoCoMo数据集上,GAM的推理准确率比最先进的基线提高了5%以上。在LongDialQA数据集上,GAM在长程依赖问题上的表现尤为突出,证明了其在长期对话管理方面的优势。

🎯 应用场景

GAM框架可应用于各种需要长期对话和知识管理的LLM Agent应用场景,例如智能客服、虚拟助手、教育辅导等。通过提高Agent的记忆能力和推理准确性,可以提升用户体验,并扩展Agent的应用范围。此外,该研究对于构建更智能、更可靠的AI系统具有重要的理论和实践价值。

📄 摘要(原文)

To sustain coherent long-term interactions, Large Language Model (LLM) agents must navigate the tension between acquiring new information and retaining prior knowledge. Current unified stream-based memory systems facilitate context updates but remain vulnerable to interference from transient noise. Conversely, discrete structured memory architectures provide robust knowledge retention but often struggle to adapt to evolving narratives. To address this, we propose GAM, a hierarchical Graph-based Agentic Memory framework that explicitly decouples memory encoding from consolidation to effectively resolve the conflict between rapid context perception and stable knowledge retention. By isolating ongoing dialogue in an event progression graph and integrating it into a topic associative network only upon semantic shifts, our approach minimizes interference while preserving long-term consistency. Additionally, we introduce a graph-guided, multi-factor retrieval strategy to enhance context precision. Experiments on LoCoMo and LongDialQA indicate that our method consistently outperforms state-of-the-art baselines in both reasoning accuracy and efficiency.