AMA: Adaptive Memory via Multi-Agent Collaboration

📄 arXiv: 2601.20352v1 📥 PDF

作者: Weiquan Huang, Zixuan Wang, Hehai Lin, Sudong Wang, Bo Xu, Qian Li, Beier Zhu, Linyi Yang, Chengwei Qin

分类: cs.AI

发布日期: 2026-01-28

备注: 8 pages


💡 一句话要点

提出AMA框架,通过多智能体协作实现自适应粒度的LLM记忆管理,提升长程交互和复杂推理能力。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 记忆管理 多智能体协作 自适应检索 长期记忆一致性

📋 核心要点

  1. 现有LLM智能体记忆系统存在检索粒度僵化、维护策略累赘以及更新机制粗糙等问题,导致信息与任务需求不匹配,并积累逻辑不一致。
  2. AMA框架通过多智能体协作,实现记忆的自适应管理,包括动态调整检索粒度、验证信息一致性以及执行针对性更新。
  3. 实验表明,AMA在长上下文任务中显著优于现有方法,同时大幅降低token消耗,有效提升了检索精度和长期记忆一致性。

📝 摘要(中文)

大型语言模型(LLM)智能体的快速发展需要强大的记忆系统来支持连贯的长期交互和复杂的推理。受益于LLM的强大能力,近期的研究重点已从简单的上下文扩展转向专用智能体记忆系统的开发。然而,现有方法通常依赖于刚性的检索粒度、积累式的维护策略和粗粒度的更新机制。这些设计选择导致存储信息与特定任务的推理需求之间存在持续的不匹配,同时导致逻辑不一致性随时间未经检查地积累。为了解决这些挑战,我们提出了一种通过多智能体协作实现的自适应记忆(AMA)的新框架,该框架利用协调的智能体来管理跨多个粒度的记忆。AMA采用分层记忆设计,动态地将检索粒度与任务复杂性对齐。具体而言,Constructor和Retriever共同实现多粒度记忆构建和自适应查询路由。Judge验证检索内容的相关性和一致性,在证据不足时触发迭代检索,或在检测到逻辑冲突时调用Refresher。然后,Refresher通过执行有针对性的更新或删除过时的条目来强制执行记忆一致性。在具有挑战性的长上下文基准上的大量实验表明,AMA显著优于最先进的基线,同时与完整上下文方法相比,token消耗减少了约80%,证明了其在保持检索精度和长期记忆一致性方面的有效性。

🔬 方法详解

问题定义:现有的大语言模型智能体在处理长程交互和复杂推理任务时,面临着记忆管理的挑战。现有的记忆系统通常采用固定的检索粒度,无法根据任务的复杂程度进行调整。此外,它们倾向于积累所有信息,而忽略了信息的冗余和冲突,导致记忆库变得庞大且混乱。最后,更新机制通常是粗粒度的,无法针对性地修正错误或删除过时信息。这些问题导致检索效率低下,推理结果不准确。

核心思路:AMA的核心思路是利用多智能体协作来构建一个自适应的记忆系统。通过引入不同的智能体角色,分别负责记忆的构建、检索、验证和更新,实现对记忆的精细化管理。这种设计允许系统根据任务需求动态调整检索粒度,并及时清理冗余和冲突信息,从而提高记忆的效率和准确性。

技术框架:AMA框架包含四个主要模块,分别由不同的智能体负责:Constructor(构建器)、Retriever(检索器)、Judge(判断器)和Refresher(刷新器)。Constructor负责构建多粒度的记忆表示。Retriever根据任务需求自适应地选择合适的粒度进行检索。Judge负责验证检索到的信息的相关性和一致性,如果发现问题,则触发迭代检索或调用Refresher。Refresher负责更新记忆库,包括修正错误信息、删除过时信息和合并冗余信息。整个流程是一个迭代的过程,直到Judge认为检索到的信息足够充分且一致。

关键创新:AMA的关键创新在于其自适应的记忆管理机制。与传统的固定粒度检索方法不同,AMA可以根据任务的复杂程度动态调整检索粒度,从而提高检索效率和准确性。此外,AMA引入了Judge和Refresher两个智能体,负责验证和更新记忆库,从而保证了记忆的一致性和可靠性。这种多智能体协作的设计是AMA的核心优势。

关键设计:AMA采用分层记忆结构,包括粗粒度的摘要信息和细粒度的细节信息。Constructor负责将原始信息编码成这种分层结构。Retriever使用自适应查询路由算法,根据任务需求选择合适的粒度进行检索。Judge使用基于LLM的推理能力,判断检索到的信息是否相关和一致。Refresher使用基于LLM的编辑能力,对记忆库进行更新和修正。具体的参数设置和损失函数等技术细节在论文中进行了详细描述(未知)。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,AMA在长上下文基准测试中显著优于现有方法。具体而言,AMA在保持或提高性能的同时,可以将token消耗降低约80%。这表明AMA在提高记忆效率和降低计算成本方面具有显著优势。此外,AMA还表现出更好的长期记忆一致性,能够有效地避免信息冗余和冲突。

🎯 应用场景

AMA框架可应用于需要长期记忆和复杂推理的LLM智能体应用,例如智能客服、对话式AI、知识问答系统等。通过提高记忆的效率和准确性,AMA可以提升这些应用的性能和用户体验,并为构建更智能、更可靠的AI系统奠定基础。

📄 摘要(原文)

The rapid evolution of Large Language Model (LLM) agents has necessitated robust memory systems to support cohesive long-term interaction and complex reasoning. Benefiting from the strong capabilities of LLMs, recent research focus has shifted from simple context extension to the development of dedicated agentic memory systems. However, existing approaches typically rely on rigid retrieval granularity, accumulation-heavy maintenance strategies, and coarse-grained update mechanisms. These design choices create a persistent mismatch between stored information and task-specific reasoning demands, while leading to the unchecked accumulation of logical inconsistencies over time. To address these challenges, we propose Adaptive Memory via Multi-Agent Collaboration (AMA), a novel framework that leverages coordinated agents to manage memory across multiple granularities. AMA employs a hierarchical memory design that dynamically aligns retrieval granularity with task complexity. Specifically, the Constructor and Retriever jointly enable multi-granularity memory construction and adaptive query routing. The Judge verifies the relevance and consistency of retrieved content, triggering iterative retrieval when evidence is insufficient or invoking the Refresher upon detecting logical conflicts. The Refresher then enforces memory consistency by performing targeted updates or removing outdated entries. Extensive experiments on challenging long-context benchmarks show that AMA significantly outperforms state-of-the-art baselines while reducing token consumption by approximately 80% compared to full-context methods, demonstrating its effectiveness in maintaining retrieval precision and long-term memory consistency.