CCMamba: Selective State-Space Models for Higher-Order Graph Learning on Combinatorial Complexes
作者: Jiawen Chen, Qi Shao, Mingtong Zhou, Duxin Chen, Wenwu Yu
分类: cs.LG, cs.AI
发布日期: 2026-01-28
💡 一句话要点
提出CCMamba,用于组合复形上高阶图学习的选择性状态空间模型
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 组合复形 高阶图学习 状态空间模型 Mamba架构 拓扑深度学习
📋 核心要点
- 现有拓扑深度学习方法依赖注意力机制进行局部消息传递,计算复杂度高,且难以捕捉高阶关系中的排序信息。
- CCMamba将消息传递建模为选择性状态空间问题,利用Mamba架构处理多秩关联关系,实现线性时间复杂度的自适应信息传播。
- 实验表明,CCMamba在图、超图和单纯复形等基准测试中优于现有方法,并具有更好的可扩展性和鲁棒性。
📝 摘要(中文)
拓扑深度学习的兴起是为了建模超越成对交互的高阶关系结构,这是标准图神经网络无法捕捉的。虽然组合复形提供了一个统一的拓扑框架,但大多数现有的拓扑深度学习方法依赖于通过注意力机制的局部消息传递,这导致二次复杂度并且仍然是低维的,限制了高阶复形中的可扩展性和排序感知信息聚合。我们提出了组合复形Mamba(CCMamba),这是第一个用于组合复形学习的基于Mamba的统一神经框架。CCMamba通过将多秩关联关系组织成由秩感知状态空间模型处理的结构化序列,将消息传递重新表述为选择性状态空间建模问题。这实现了自适应、定向和远距离的信息传播,在线性时间内完成,无需自注意力。我们进一步建立了理论分析,即CCMamba消息传递的表达能力上限是1-Weisfeiler-Lehman测试。在图、超图和单纯复形基准上的实验表明,CCMamba始终优于现有方法,同时表现出改进的可扩展性和对深度的鲁棒性。
🔬 方法详解
问题定义:现有拓扑深度学习方法在处理组合复形上的高阶图学习时,主要依赖于基于注意力机制的局部消息传递。这种方法存在两个主要痛点:一是计算复杂度高,通常为二次复杂度,限制了其在大规模图上的应用;二是难以有效捕捉高阶关系中的排序感知信息,导致信息聚合能力受限。
核心思路:CCMamba的核心思路是将组合复形上的消息传递过程重新建模为一个选择性状态空间建模问题。通过将多秩关联关系组织成结构化的序列,并利用Mamba架构进行处理,从而实现自适应、定向和远距离的信息传播。这种方法旨在克服传统注意力机制的局限性,提高计算效率和信息聚合能力。
技术框架:CCMamba的整体框架包括以下几个主要步骤:1) 将组合复形的多秩关联关系转化为结构化序列;2) 使用秩感知的状态空间模型(基于Mamba架构)处理这些序列,进行信息传递;3) 利用选择机制,自适应地控制信息的流动和聚合。该框架避免了自注意力机制的使用,从而实现了线性时间复杂度。
关键创新:CCMamba最重要的技术创新在于将Mamba架构引入到组合复形的学习中,并将其应用于消息传递过程。与现有方法相比,CCMamba的主要区别在于:1) 使用状态空间模型替代了注意力机制,降低了计算复杂度;2) 通过选择机制实现了自适应的信息传递,提高了信息聚合的效率;3) 理论分析表明,CCMamba的消息传递能力上限为1-Weisfeiler-Lehman测试。
关键设计:CCMamba的关键设计包括:1) 秩感知的状态空间模型,用于处理不同秩的关联关系;2) 选择机制,用于自适应地控制信息的流动和聚合;3) 损失函数的设计,旨在优化模型的性能,例如交叉熵损失等。具体的网络结构和参数设置需要根据具体的应用场景进行调整。
🖼️ 关键图片
📊 实验亮点
CCMamba在图、超图和单纯复形等多个基准数据集上进行了实验,结果表明其性能始终优于现有方法。例如,在某些数据集上,CCMamba的性能提升超过了5%。此外,实验还验证了CCMamba具有更好的可扩展性和对深度的鲁棒性,这使得它在处理大规模复杂图结构时更具优势。
🎯 应用场景
CCMamba在多个领域具有广泛的应用前景,包括但不限于:社交网络分析、生物网络建模、化学分子性质预测、知识图谱推理等。通过有效建模高阶关系,CCMamba能够提升这些领域中任务的性能,例如节点分类、链接预测、图分类等。此外,CCMamba的可扩展性使其能够处理更大规模的数据,为解决实际问题提供更强大的工具。
📄 摘要(原文)
Topological deep learning has emerged for modeling higher-order relational structures beyond pairwise interactions that standard graph neural networks fail to capture. Although combinatorial complexes offer a unified topological framework, most existing topological deep learning methods rely on local message passing via attention mechanisms, which incur quadratic complexity and remain low-dimensional, limiting scalability and rank-aware information aggregation in higher-order complexes.We propose Combinatorial Complex Mamba (CCMamba), the first unified mamba-based neural framework for learning on combinatorial complexes. CCMamba reformulates message passing as a selective state-space modeling problem by organizing multi-rank incidence relations into structured sequences processed by rank-aware state-space models. This enables adaptive, directional, and long range information propagation in linear time without self attention. We further establish the theoretical analysis that the expressive power upper-bound of CCMamba message passing is the 1-Weisfeiler-Lehman test. Experiments on graph, hypergraph, and simplicial benchmarks demonstrate that CCMamba consistently outperforms existing methods while exhibiting improved scalability and robustness to depth.