AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents

📄 arXiv: 2603.16496v1 📥 PDF

作者: Shannan Yan, Jingchen Ni, Leqi Zheng, Jiajun Zhang, Peixi Wu, Dacheng Yin, Jing Lyu, Chun Yuan, Fengyun Rao

分类: cs.CL

发布日期: 2026-03-17


💡 一句话要点

AdaMem:面向长程对话Agent的自适应用户中心记忆框架

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 长程对话Agent 用户中心记忆 自适应检索 图神经网络 知识图谱

📋 核心要点

  1. 现有记忆系统过度依赖语义相似性,忽略了用户中心理解的关键证据,且缺乏时间和因果连贯性。
  2. AdaMem构建自适应用户中心记忆框架,融合工作、情景、角色和图记忆,实现全面信息整合。
  3. AdaMem在LoCoMo和PERSONAMEM基准测试中达到SOTA,验证了其在长程推理和用户建模方面的有效性。

📝 摘要(中文)

大型语言模型(LLM)Agent越来越依赖外部记忆来支持长程交互、个性化辅助和多步骤推理。然而,现有的记忆系统仍然面临三个核心挑战:它们通常过度依赖语义相似性,这可能会遗漏对以用户为中心的理解至关重要的证据;它们经常将相关的经验存储为孤立的片段,削弱了时间和因果连贯性;并且它们通常使用静态的记忆粒度,不能很好地适应不同问题的需求。我们提出了AdaMem,一个面向长程对话Agent的自适应用户中心记忆框架。AdaMem将对话历史组织成工作记忆、情景记忆、人物角色记忆和图记忆,使系统能够在统一的框架内保存最近的上下文、结构化的长期经验、稳定的用户特征以及关系感知的连接。在推理时,AdaMem首先解析目标参与者,然后构建一个问题条件下的检索路径,该路径仅在需要时将语义检索与关系感知的图扩展相结合,最后通过角色专门化的流水线生成答案,用于证据合成和响应生成。我们在LoCoMo和PERSONAMEM基准上评估AdaMem,用于长程推理和用户建模。实验结果表明,AdaMem在这两个基准上都取得了最先进的性能。代码将在接收后发布。

🔬 方法详解

问题定义:现有长程对话Agent的记忆系统主要存在三个问题:一是过度依赖语义相似度进行检索,导致关键的用户相关信息丢失;二是将相关经验存储为孤立片段,缺乏时间与因果关系;三是使用静态记忆粒度,无法适应不同问题的需求。这些问题限制了Agent在长程交互、个性化辅助和多步骤推理方面的能力。

核心思路:AdaMem的核心思路是构建一个自适应的、以用户为中心的记忆框架,该框架能够整合不同类型的记忆,并根据问题的需求动态地调整检索策略。通过整合工作记忆、情景记忆、角色记忆和图记忆,AdaMem能够更全面地捕捉用户的信息,并建立起用户与对话历史之间的联系。

技术框架:AdaMem的整体框架包含以下几个主要模块:1) 记忆组织模块:将对话历史组织成工作记忆(短期上下文)、情景记忆(长期经验)、角色记忆(用户特征)和图记忆(关系连接)。2) 参与者解析模块:确定对话的目标参与者。3) 检索路由模块:根据问题构建检索路径,结合语义检索和关系感知的图扩展。4) 证据合成与响应生成模块:利用角色专门化的流水线,合成检索到的证据并生成最终的响应。

关键创新:AdaMem的关键创新在于其自适应的记忆组织和检索机制。不同于以往静态的记忆结构,AdaMem能够根据对话的上下文和用户的特征,动态地调整记忆的粒度和检索策略。此外,AdaMem还引入了关系感知的图扩展,能够挖掘对话历史中隐藏的关系,从而提高检索的准确性。

关键设计:AdaMem的关键设计包括:1) 多类型记忆的融合:通过不同的记忆模块存储不同类型的信息,从而实现更全面的用户建模。2) 自适应检索路由:根据问题的类型和用户的特征,动态地选择检索策略,例如,对于需要长期记忆的问题,优先检索情景记忆和角色记忆。3) 关系感知的图扩展:利用图神经网络学习对话历史中的关系,从而提高检索的准确性。具体的参数设置、损失函数和网络结构等细节在论文正文中进行了详细描述(未知)。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

AdaMem在LoCoMo和PERSONAMEM两个基准测试中均取得了SOTA性能。在LoCoMo基准上,AdaMem在长程推理方面表现出色,显著优于现有方法。在PERSONAMEM基准上,AdaMem在用户建模方面取得了显著提升,能够更准确地捕捉用户的特征和偏好。具体的性能提升幅度在论文中进行了详细的量化比较(未知)。

🎯 应用场景

AdaMem适用于需要长程交互、个性化辅助和多步骤推理的对话Agent应用,例如智能客服、虚拟助手、教育辅导等。通过更准确地理解用户意图和维护对话上下文,AdaMem可以显著提升用户体验,并为Agent提供更强大的问题解决能力。未来,该技术有望应用于更复杂的任务型对话系统和人机协作场景。

📄 摘要(原文)

Large language model (LLM) agents increasingly rely on external memory to support long-horizon interaction, personalized assistance, and multi-step reasoning. However, existing memory systems still face three core challenges: they often rely too heavily on semantic similarity, which can miss evidence crucial for user-centric understanding; they frequently store related experiences as isolated fragments, weakening temporal and causal coherence; and they typically use static memory granularities that do not adapt well to the requirements of different questions. We propose AdaMem, an adaptive user-centric memory framework for long-horizon dialogue agents. AdaMem organizes dialogue history into working, episodic, persona, and graph memories, enabling the system to preserve recent context, structured long-term experiences, stable user traits, and relation-aware connections within a unified framework. At inference time, AdaMem first resolves the target participant, then builds a question-conditioned retrieval route that combines semantic retrieval with relation-aware graph expansion only when needed, and finally produces the answer through a role-specialized pipeline for evidence synthesis and response generation. We evaluate AdaMem on the LoCoMo and PERSONAMEM benchmarks for long-horizon reasoning and user modeling. Experimental results show that AdaMem achieves state-of-the-art performance on both benchmarks. The code will be released upon acceptance.