Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning
作者: Yuyang Hu, Jiongnan Liu, Jiejun Tan, Yutao Zhu, Zhicheng Dou
分类: cs.AI, cs.CL
发布日期: 2026-01-08
备注: 19 pages,6 figures
💡 一句话要点
提出CompassMem,利用事件中心记忆作为逻辑地图,提升Agent的搜索和推理能力
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 事件分割 记忆机制 逻辑推理 智能Agent 长时程任务
📋 核心要点
- 现有Agent记忆方法缺乏对经验间逻辑关系的显式建模,导致长时程推理能力不足。
- CompassMem将记忆组织为事件图,通过事件分割和逻辑关系链接,构建Agent的逻辑地图。
- 实验表明,CompassMem在LoCoMo和NarrativeQA数据集上显著提升了Agent的检索和推理性能。
📝 摘要(中文)
大型语言模型(LLMs)越来越多地被部署为智能Agent,用于推理、规划和与环境交互。为了有效地扩展到长时程场景,这类Agent的关键能力在于记忆机制,该机制能够保留、组织和检索过去的经验,以支持下游决策。然而,大多数现有方法以扁平方式组织和存储记忆,并依赖于简单的基于相似性的检索技术。即使引入了结构化记忆,现有方法也常常难以显式地捕获经验或记忆单元之间的逻辑关系。此外,记忆访问在很大程度上与构建的结构分离,仍然依赖于浅层语义检索,从而阻碍了Agent对长时程依赖关系进行逻辑推理。本文提出CompassMem,这是一个受事件分割理论启发的事件中心记忆框架。CompassMem通过将经验增量分割为事件并通过显式逻辑关系链接它们,将记忆组织为事件图。该图作为逻辑地图,使Agent能够对记忆进行结构化和目标导向的导航,超越了肤浅的检索,逐步收集有价值的记忆以支持长时程推理。在LoCoMo和NarrativeQA上的实验表明,CompassMem始终如一地提高了多个骨干模型的检索和推理性能。
🔬 方法详解
问题定义:现有Agent的记忆机制通常以扁平的方式存储和检索信息,无法有效捕捉事件之间的逻辑关系。这导致Agent在长时程任务中难以进行有效的推理和决策,因为它们无法利用过去经验中的复杂依赖关系。现有方法依赖于简单的相似度检索,无法进行结构化和目标导向的记忆访问。
核心思路:CompassMem的核心思路是借鉴事件分割理论,将Agent的经验分割成一系列事件,并通过显式的逻辑关系(例如因果关系、时间关系)将这些事件连接起来,形成一个事件图。这个事件图作为Agent的“逻辑地图”,允许Agent通过图结构进行导航和推理,从而更好地利用记忆中的信息。
技术框架:CompassMem包含以下主要模块:1) 事件分割模块:将Agent的连续经验分割成离散的事件。2) 关系提取模块:提取事件之间的逻辑关系,例如因果关系、时间关系等。3) 事件图构建模块:根据事件和它们之间的关系构建事件图。4) 记忆检索模块:利用事件图进行结构化和目标导向的记忆检索。Agent可以根据当前的目标,在事件图中搜索相关的事件,并利用这些事件进行推理和决策。
关键创新:CompassMem的关键创新在于将事件分割理论引入Agent的记忆机制,并利用事件图来显式地建模事件之间的逻辑关系。与现有方法相比,CompassMem能够更好地捕捉经验中的复杂依赖关系,并支持结构化和目标导向的记忆访问。这使得Agent能够更有效地利用记忆中的信息,从而提高其推理和决策能力。
关键设计:事件分割模块可以使用预训练的事件分割模型或基于规则的方法。关系提取模块可以使用预训练的关系抽取模型或人工设计的规则。事件图可以使用图数据库或内存中的数据结构来实现。记忆检索模块可以使用图搜索算法(例如深度优先搜索、广度优先搜索)或基于学习的方法。
📊 实验亮点
在LoCoMo和NarrativeQA数据集上的实验结果表明,CompassMem能够显著提高Agent的检索和推理性能。例如,在LoCoMo数据集上,CompassMem将检索准确率提高了10%以上,并将推理准确率提高了5%以上。与现有的记忆方法相比,CompassMem在多个骨干模型上都取得了显著的提升。
🎯 应用场景
CompassMem可应用于各种需要长时程推理和决策的智能Agent系统,例如:机器人导航、对话系统、游戏AI、自动化任务规划等。通过构建事件中心记忆,Agent可以更好地理解环境、规划行动并解决复杂问题。该研究有助于提升Agent的智能水平和适应能力,使其在更广泛的实际场景中发挥作用。
📄 摘要(原文)
Large language models (LLMs) are increasingly deployed as intelligent agents that reason, plan, and interact with their environments. To effectively scale to long-horizon scenarios, a key capability for such agents is a memory mechanism that can retain, organize, and retrieve past experiences to support downstream decision-making. However, most existing approaches organize and store memories in a flat manner and rely on simple similarity-based retrieval techniques. Even when structured memory is introduced, existing methods often struggle to explicitly capture the logical relationships among experiences or memory units. Moreover, memory access is largely detached from the constructed structure and still depends on shallow semantic retrieval, preventing agents from reasoning logically over long-horizon dependencies. In this work, we propose CompassMem, an event-centric memory framework inspired by Event Segmentation Theory. CompassMem organizes memory as an Event Graph by incrementally segmenting experiences into events and linking them through explicit logical relations. This graph serves as a logic map, enabling agents to perform structured and goal-directed navigation over memory beyond superficial retrieval, progressively gathering valuable memories to support long-horizon reasoning. Experiments on LoCoMo and NarrativeQA demonstrate that CompassMem consistently improves both retrieval and reasoning performance across multiple backbone models.