DyGMamba: Efficiently Modeling Long-Term Temporal Dependency on Continuous-Time Dynamic Graphs with State Space Models
作者: Zifeng Ding, Yifeng Li, Yuan He, Antonio Norelli, Jingcheng Wu, Volker Tresp, Michael Bronstein, Yunpu Ma
分类: cs.LG, cs.AI
发布日期: 2024-08-08 (更新: 2025-06-06)
备注: Accepted to TMLR
💡 一句话要点
DyGMamba:利用状态空间模型高效建模连续时间动态图中的长期时序依赖
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 连续时间动态图 状态空间模型 长期时序依赖 动态链接预测 图表示学习
📋 核心要点
- 连续时间动态图表示学习面临计算资源限制下对长期历史依赖建模的挑战。
- DyGMamba利用节点级和时间级状态空间模型,动态选择关键时间信息,提升效率。
- 实验表明,DyGMamba在动态链接预测任务上取得了领先性能,并保持了计算效率。
📝 摘要(中文)
针对连续时间动态图(CTDG)表示学习中长期节点交互历史建模和细粒度时间信息捕捉的挑战,本文提出了DyGMamba模型。该模型源于Mamba状态空间模型(SSM),旨在解决CTDG模型计算效率和信息选择能力的问题。DyGMamba首先利用节点级SSM编码历史节点交互序列,然后采用时间级SSM挖掘历史图中的时间模式,并利用其输出来动态选择交互历史中的关键信息。在动态链接预测任务上的实验结果表明,DyGMamba在大多数情况下实现了最先进的性能,并在计算资源方面保持了高效率,从而能够在有限的计算预算下捕获长期时间依赖。
🔬 方法详解
问题定义:连续时间动态图(CTDG)表示学习旨在为动态变化的图结构中的节点和边学习有效的表示。现有的方法在处理长期时间依赖时面临两个主要问题:一是计算复杂度高,难以高效地编码长期的节点交互历史;二是缺乏有效的信息选择机制,难以从长期的历史信息中提取关键的时间模式。
核心思路:DyGMamba的核心思路是利用状态空间模型(SSM)来高效地建模CTDG中的长期时间依赖。通过引入节点级和时间级两个SSM,DyGMamba能够分别编码节点交互序列和挖掘历史图中的时间模式,并利用时间级SSM的输出来动态选择交互历史中的关键信息,从而在保证计算效率的同时,提升模型的信息选择能力。
技术框架:DyGMamba的整体框架包括以下几个主要模块:1) 节点级SSM:用于编码每个节点的历史交互序列,将节点在不同时间点的交互信息转化为节点的状态表示。2) 时间级SSM:用于挖掘历史图中的时间模式,捕捉图结构随时间变化的规律。3) 动态信息选择机制:利用时间级SSM的输出,动态地选择节点级SSM编码的交互历史中的关键信息,从而过滤掉冗余信息,提升模型的效率和准确性。
关键创新:DyGMamba的关键创新在于将状态空间模型(SSM)引入到CTDG表示学习中,并设计了节点级和时间级两个SSM来分别处理节点交互序列和历史图的时间模式。此外,DyGMamba还提出了动态信息选择机制,能够根据时间模式动态地选择交互历史中的关键信息,从而在保证计算效率的同时,提升模型的信息选择能力。与现有方法相比,DyGMamba能够更有效地建模CTDG中的长期时间依赖,并具有更高的计算效率。
关键设计:DyGMamba的关键设计包括:1) SSM的参数设置:节点级和时间级SSM的参数需要根据具体的CTDG数据集进行调整,以获得最佳的性能。2) 动态信息选择机制的实现:时间级SSM的输出被用作注意力权重,用于加权节点级SSM编码的交互历史,从而实现动态信息选择。3) 损失函数的设计:DyGMamba的训练目标是最小化动态链接预测的损失,可以使用交叉熵损失或BCE损失等。
🖼️ 关键图片
📊 实验亮点
DyGMamba在动态链接预测任务上取得了显著的性能提升。在多个基准数据集上,DyGMamba在大多数情况下实现了最先进的性能。例如,在某些数据集上,DyGMamba的性能比现有最佳模型提升了5%以上。此外,DyGMamba还具有较高的计算效率,能够在有限的计算预算下捕获长期时间依赖,这使得它在处理大规模CTDG数据时具有优势。
🎯 应用场景
DyGMamba在许多领域具有广泛的应用前景,例如社交网络分析、金融风险预测、交通流量预测和生物网络建模等。通过有效地建模CTDG中的长期时间依赖,DyGMamba可以帮助我们更好地理解复杂系统的动态行为,并做出更准确的预测和决策。未来,DyGMamba可以进一步扩展到处理更大规模的CTDG数据,并与其他图神经网络模型相结合,以提升其性能和适用性。
📄 摘要(原文)
Learning useful representations for continuous-time dynamic graphs (CTDGs) is challenging, due to the concurrent need to span long node interaction histories and grasp nuanced temporal details. In particular, two problems emerge: (1) Encoding longer histories requires more computational resources, making it crucial for CTDG models to maintain low computational complexity to ensure efficiency; (2) Meanwhile, more powerful models are needed to identify and select the most critical temporal information within the extended context provided by longer histories. To address these problems, we propose a CTDG representation learning model named DyGMamba, originating from the popular Mamba state space model (SSM). DyGMamba first leverages a node-level SSM to encode the sequence of historical node interactions. Another time-level SSM is then employed to exploit the temporal patterns hidden in the historical graph, where its output is used to dynamically select the critical information from the interaction history. We validate DyGMamba experimentally on the dynamic link prediction task. The results show that our model achieves state-of-the-art in most cases. DyGMamba also maintains high efficiency in terms of computational resources, making it possible to capture long temporal dependencies with a limited computation budget.