MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents

📄 arXiv: 2602.02474v1 📥 PDF

作者: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang

分类: cs.CL, cs.AI, cs.LG

发布日期: 2026-02-02

备注: Code is available at https://github.com/ViktorAxelsen/MemSkill


💡 一句话要点

MemSkill:学习和进化记忆技能,赋能自进化Agent

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LLM Agent 记忆系统 技能学习 自进化 长期记忆

📋 核心要点

  1. 现有LLM Agent记忆系统依赖于静态的手工操作,缺乏灵活性和效率,难以适应多样交互和长历史。
  2. MemSkill将记忆操作视为可学习和进化的技能,通过控制器选择技能,执行器生成记忆,设计器进化技能集。
  3. 实验表明,MemSkill在多个任务上优于现有基线,并具备良好的泛化能力,验证了其有效性。

📝 摘要(中文)

大多数大型语言模型(LLM)Agent的记忆系统依赖于少量静态、手工设计的操作来提取记忆。这些固定的程序硬编码了关于存储什么以及如何修改记忆的人工先验知识,使得它们在不同的交互模式下显得僵化,并且在处理长历史记录时效率低下。为此,我们提出了MemSkill,它将这些操作重新定义为可学习和可进化的记忆技能,这些技能是结构化的、可重用的例程,用于从交互轨迹中提取、整合和修剪信息。受到Agent技能设计理念的启发,MemSkill采用一个控制器,该控制器学习选择一小组相关的技能,并与一个基于LLM的执行器配对,该执行器生成技能引导的记忆。除了学习技能选择之外,MemSkill还引入了一个设计器,该设计器定期审查所选技能产生不正确或不完整记忆的困难案例,并通过提出改进和新技能来进化技能集。MemSkill共同形成了一个闭环程序,可以改进技能选择策略和技能集本身。在LoCoMo、LongMemEval、HotpotQA和ALFWorld上的实验表明,MemSkill提高了任务性能,优于强大的基线,并且在各种设置中具有良好的泛化能力。进一步的分析揭示了技能是如何进化的,为LLM Agent的更具适应性的、自进化的记忆管理提供了见解。

🔬 方法详解

问题定义:现有LLM Agent的记忆系统依赖于人工设计的固定操作,这些操作无法适应不同的交互模式和长期的交互历史。这种硬编码的方式限制了Agent的记忆能力,使其难以有效地提取、整合和修剪信息,从而影响Agent的性能。

核心思路:MemSkill的核心思路是将记忆操作视为可学习和进化的技能。通过学习选择合适的技能,Agent可以更灵活地处理不同的记忆任务。此外,通过不断进化技能集,Agent可以适应新的交互模式和任务需求,从而提高记忆能力和整体性能。这种方法借鉴了Agent技能的设计理念,将记忆管理视为一个动态的、可优化的过程。

技术框架:MemSkill包含三个主要模块:控制器(Controller)、执行器(Executor)和设计器(Designer)。控制器负责学习选择合适的记忆技能,执行器基于LLM生成技能引导的记忆,设计器则定期审查困难案例,并进化技能集。整个流程形成一个闭环,不断改进技能选择策略和技能集本身。

关键创新:MemSkill的关键创新在于将记忆操作视为可学习和进化的技能,并引入了设计器来自动进化技能集。与现有方法相比,MemSkill不再依赖于人工设计的固定操作,而是通过学习和进化来适应不同的任务和交互模式。这种自进化的能力使得MemSkill能够更好地处理复杂的记忆任务,并提高Agent的整体性能。

关键设计:控制器的具体实现未知,但其目标是学习一个策略,根据当前Agent的状态和交互历史选择合适的记忆技能。执行器基于LLM,根据所选技能生成记忆。设计器则需要定义一个评估指标来判断技能是否有效,并设计一种机制来提出新的技能或改进现有技能。具体的参数设置、损失函数和网络结构等技术细节在论文中可能没有详细描述,需要进一步研究。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,MemSkill在LoCoMo、LongMemEval、HotpotQA和ALFWorld等多个任务上都取得了显著的性能提升,优于现有的基线方法。这表明MemSkill能够有效地学习和进化记忆技能,并将其应用于不同的任务场景。具体的性能数据和提升幅度需要在论文中查找。

🎯 应用场景

MemSkill可应用于各种需要长期记忆和复杂交互的LLM Agent应用场景,例如智能客服、虚拟助手、游戏AI等。通过自进化记忆技能,Agent可以更好地理解用户意图,记住关键信息,并做出更合理的决策,从而提高用户体验和任务完成效率。该研究为构建更智能、更具适应性的Agent提供了新的思路。

📄 摘要(原文)

Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present \textbf{MemSkill}, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a \emph{controller} that learns to select a small set of relevant skills, paired with an LLM-based \emph{executor} that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a \emph{designer} that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.