Causality-Driven Disentangled Representation Learning in Multiplex Graphs

📄 arXiv: 2603.24105v1 📥 PDF

作者: Saba Nasiri, Selin Aviyente, Dorina Thanou

分类: cs.LG, cs.SI

发布日期: 2026-03-25

备注: Submitted to IEEE Transactions on Signal and Information Processing over Networks. Includes supplementary material


💡 一句话要点

提出CaDeM框架,通过因果推断解耦多重图中的共享与私有表示

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 多重图表示学习 因果推断 解耦表示 图神经网络 自监督学习

📋 核心要点

  1. 多重图表示学习的关键挑战在于如何有效分离共享信息和层特定信息,现有方法难以实现。
  2. CaDeM框架利用因果推断,通过对齐共享嵌入、强化私有嵌入和后门调整,实现信息的有效解耦。
  3. 实验结果表明,CaDeM在合成和真实数据集上均优于现有基线,验证了其在多重图表示学习中的有效性。

📝 摘要(中文)

多重图(节点通过多种关系类型交互的多层网络)的表示学习面临着共享(通用)和层特定(私有)信息纠缠的挑战,这限制了泛化性和可解释性。本文提出了一种基于因果推断的框架CaDeM,以自监督的方式解耦通用和私有成分。CaDeM联合执行以下操作:(i)对齐跨层的共享嵌入,(ii)强制私有嵌入捕获层特定的信号,以及(iii)应用后门调整,以确保通用嵌入仅捕获全局信息,同时与私有表示分离。在合成和真实世界数据集上的实验表明,相对于现有基线,该方法具有持续的改进,突出了该方法在鲁棒和可解释的多重图表示学习方面的有效性。

🔬 方法详解

问题定义:多重图表示学习旨在学习图中节点的嵌入表示,但由于节点在不同层之间存在多种关系,导致共享信息(如节点的核心属性)和层特定信息(如节点在特定关系中的作用)相互纠缠。现有方法难以有效分离这些信息,影响了表示的泛化能力和可解释性。

核心思路:本文的核心思路是利用因果推断来解耦共享和私有表示。具体而言,将共享表示视为导致节点在所有层中表现相似的原因,而将私有表示视为导致节点在特定层中表现不同的原因。通过因果干预,可以消除私有表示对共享表示的影响,从而保证共享表示只包含全局信息。

技术框架:CaDeM框架包含三个主要模块:1) 共享嵌入对齐模块,旨在学习跨层对齐的共享嵌入;2) 私有嵌入学习模块,旨在学习捕获层特定信号的私有嵌入;3) 后门调整模块,旨在通过因果干预,消除私有嵌入对共享嵌入的影响。整个流程以自监督的方式进行,无需人工标注。

关键创新:CaDeM的关键创新在于将因果推断引入多重图表示学习,并利用后门调整来解耦共享和私有表示。与现有方法相比,CaDeM能够更有效地分离不同类型的信息,从而提高表示的鲁棒性和可解释性。

关键设计:CaDeM使用图神经网络(GNN)作为编码器来学习节点嵌入。共享嵌入对齐模块使用对比学习损失来鼓励跨层对齐。私有嵌入学习模块使用重构损失来确保私有嵌入能够捕获层特定信息。后门调整模块通过最小化共享嵌入和私有嵌入之间的互信息来实现。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在合成数据集上,CaDeM在表示解耦方面显著优于现有基线。在真实世界数据集上,CaDeM在节点分类和链接预测任务中取得了持续的改进,例如在节点分类任务中,相对于最佳基线,准确率提升了3%-5%。实验结果表明,CaDeM能够有效地解耦共享和私有表示,从而提高多重图表示学习的性能。

🎯 应用场景

该研究成果可应用于社交网络分析、生物网络分析、推荐系统等领域。例如,在社交网络中,可以利用该方法分离用户的共同兴趣和特定社交圈子的兴趣,从而更准确地进行用户画像和推荐。在生物网络中,可以分离基因的通用功能和特定组织中的功能,从而更好地理解基因的作用机制。

📄 摘要(原文)

Learning representations from multiplex graphs, i.e., multi-layer networks where nodes interact through multiple relation types, is challenging due to the entanglement of shared (common) and layer-specific (private) information, which limits generalization and interpretability. In this work, we introduce a causal inference-based framework that disentangles common and private components in a self-supervised manner. CaDeM jointly (i) aligns shared embeddings across layers, (ii) enforces private embeddings to capture layer-specific signals, and (iii) applies backdoor adjustment to ensure that the common embeddings capture only global information while being separated from the private representations. Experiments on synthetic and real-world datasets demonstrate consistent improvements over existing baselines, highlighting the effectiveness of our approach for robust and interpretable multiplex graph representation learning.