TiMem: Temporal-Hierarchical Memory Consolidation for Long-Horizon Conversational Agents

📄 arXiv: 2601.02845v1 📥 PDF

作者: Kai Li, Xuanqing Yu, Ziyi Ni, Yi Zeng, Yao Xu, Zheqing Zhang, Xin Li, Jitao Sang, Xiaogang Duan, Xuelei Wang, Chengbao Liu, Jie Tan

分类: cs.CL, cs.AI

发布日期: 2026-01-06


💡 一句话要点

TiMem:面向长程对话Agent的时序分层记忆整合框架

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 长程对话Agent 记忆整合 时间记忆树 分层记忆 语义引导 个性化 人机交互

📋 核心要点

  1. 现有对话Agent难以有效管理长程对话历史,导致记忆碎片化和个性化不稳定。
  2. TiMem通过时间记忆树(TMT)组织对话,实现语义引导的跨层级记忆整合。
  3. 实验表明,TiMem在LoCoMo和LongMemEval-S上均取得SOTA结果,并显著减少了召回记忆长度。

📝 摘要(中文)

长程对话Agent需要管理不断增长的交互历史,而这些历史记录很快就会超出大型语言模型(LLM)有限的上下文窗口。现有的记忆框架对跨层级的时间结构化信息的支持有限,常常导致记忆碎片化和不稳定的长程个性化。我们提出了TiMem,一个时序分层记忆框架,它通过时间记忆树(TMT)组织对话,从而能够系统地将原始对话观察结果整合为逐步抽象的角色表示。TiMem的特点是三个核心属性:(1)通过TMT进行时序分层组织;(2)语义引导的整合,无需微调即可实现跨层级的记忆集成;(3)复杂性感知的记忆召回,平衡了不同复杂性查询的精度和效率。在一致的评估设置下,TiMem在两个基准测试上都达到了最先进的准确率,在LoCoMo上达到75.30%,在LongMemEval-S上达到76.88%。它优于所有评估的基线,同时在LoCoMo上减少了52.20%的召回记忆长度。流形分析表明LoCoMo上角色分离清晰,LongMemEval-S上分散性降低。总的来说,TiMem将时间连续性视为对话Agent中长程记忆的首要组织原则。

🔬 方法详解

问题定义:长程对话Agent需要处理的对话历史长度超过了LLM的上下文窗口限制,导致无法有效利用历史信息。现有记忆框架缺乏对时间信息的有效建模,难以实现记忆的连贯性和长期个性化,容易出现记忆碎片化的问题。

核心思路:TiMem的核心思路是将对话历史组织成一个时序分层的结构,即时间记忆树(TMT),从而能够有效地对时间信息进行建模,并实现跨层级的记忆整合。通过语义引导的整合机制,可以在不同层级之间传递信息,从而避免记忆碎片化,并实现更稳定的长程个性化。

技术框架:TiMem框架主要包含以下几个模块:1) 时间记忆树(TMT)构建模块:负责将原始对话历史组织成一个树状结构,其中每个节点代表一个时间段内的对话信息。2) 语义引导的记忆整合模块:负责将不同层级的记忆信息进行整合,从而实现跨层级的知识传递。3) 复杂性感知的记忆召回模块:根据查询的复杂程度,选择合适的记忆层级进行召回,从而平衡精度和效率。

关键创新:TiMem的关键创新在于提出了时间记忆树(TMT)这种时序分层的记忆组织方式,以及语义引导的记忆整合机制。TMT能够有效地对时间信息进行建模,而语义引导的整合机制能够实现跨层级的知识传递,从而避免记忆碎片化。与现有方法相比,TiMem更加注重时间信息的建模和记忆的连贯性。

关键设计:TMT的构建方式是关键设计之一,具体如何根据时间间隔和语义相似度来划分对话片段,并构建树状结构需要仔细设计。语义引导的整合模块也需要设计合适的语义相似度度量方式和信息传递机制。复杂性感知的记忆召回模块需要设计合适的策略来判断查询的复杂程度,并选择合适的记忆层级进行召回。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

TiMem在LoCoMo和LongMemEval-S两个基准测试上均取得了SOTA结果,分别达到了75.30%和76.88%的准确率。与现有方法相比,TiMem在LoCoMo上减少了52.20%的召回记忆长度,表明其能够更有效地利用记忆信息。流形分析表明,TiMem能够更好地分离不同角色的信息,并降低记忆分散性。

🎯 应用场景

TiMem可应用于各种需要长程记忆的对话Agent场景,例如智能客服、虚拟助手、游戏NPC等。通过更有效地管理和利用对话历史,TiMem可以提升对话Agent的连贯性、个性化和用户体验,并有望在人机交互领域发挥重要作用。

📄 摘要(原文)

Long-horizon conversational agents have to manage ever-growing interaction histories that quickly exceed the finite context windows of large language models (LLMs). Existing memory frameworks provide limited support for temporally structured information across hierarchical levels, often leading to fragmented memories and unstable long-horizon personalization. We present TiMem, a temporal--hierarchical memory framework that organizes conversations through a Temporal Memory Tree (TMT), enabling systematic memory consolidation from raw conversational observations to progressively abstracted persona representations. TiMem is characterized by three core properties: (1) temporal--hierarchical organization through TMT; (2) semantic-guided consolidation that enables memory integration across hierarchical levels without fine-tuning; and (3) complexity-aware memory recall that balances precision and efficiency across queries of varying complexity. Under a consistent evaluation setup, TiMem achieves state-of-the-art accuracy on both benchmarks, reaching 75.30% on LoCoMo and 76.88% on LongMemEval-S. It outperforms all evaluated baselines while reducing the recalled memory length by 52.20% on LoCoMo. Manifold analysis indicates clear persona separation on LoCoMo and reduced dispersion on LongMemEval-S. Overall, TiMem treats temporal continuity as a first-class organizing principle for long-horizon memory in conversational agents.