MoEGCL: Mixture of Ego-Graphs Contrastive Representation Learning for Multi-View Clustering

📄 arXiv: 2511.05876v3 📥 PDF

作者: Jian Zhu, Xin Zou, Jun Sun, Cheng Luo, Lei Liu, Lingfang Zeng, Ning Zhang, Bian Wu, Chang Tang, Lirong Dai

分类: cs.CV, cs.LG

发布日期: 2025-11-08 (更新: 2025-11-29)

🔗 代码/项目: GITHUB


💡 一句话要点

提出MoEGCL,通过混合自 Ego 图对比学习提升多视图聚类性能

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 多视图聚类 图神经网络 对比学习 自 Ego 图 混合专家网络

📋 核心要点

  1. 现有方法在多视图聚类中采用粗粒度的图融合策略,忽略了样本级别的细粒度信息。
  2. MoEGCL 提出混合自 Ego 图融合(MoEGF)和 Ego 图对比学习(EGCL),实现样本级别的细粒度图融合和表示对齐。
  3. 实验结果表明,MoEGCL 在深度多视图聚类任务中取得了 state-of-the-art 的性能。

📝 摘要(中文)

近年来,图神经网络(GNNs)的进步显著推动了多视图聚类(MVC)的发展。然而,现有方法面临粗粒度图融合的问题。具体来说,当前的方法通常为每个视图生成一个单独的图结构,然后在视图级别执行图结构的加权融合,这是一种相对粗略的策略。为了解决这个限制,我们提出了一种新颖的混合自 Ego 图对比表示学习(MoEGCL)。它主要由两个模块组成。特别地,我们提出了一种创新的混合自 Ego 图融合(MoEGF),它构建 Ego 图,并利用混合专家网络来实现样本级别上的细粒度 Ego 图融合,而不是传统的视图级别融合。此外,我们提出了 Ego 图对比学习(EGCL)模块,以将融合的表示与特定于视图的表示对齐。EGCL 模块增强了来自同一簇的样本的表示相似性,而不仅仅是来自同一样本的表示相似性,从而进一步提升了细粒度图表示。大量实验表明,MoEGCL 在深度多视图聚类任务中实现了最先进的结果。源代码可在 https://github.com/HackerHyper/MoEGCL 公开获得。

🔬 方法详解

问题定义:现有的多视图聚类方法通常在视图级别进行图融合,忽略了样本级别的细粒度信息。这种粗粒度的融合方式无法充分利用不同视图之间的互补信息,导致聚类性能受限。现有方法难以有效捕捉不同视图中同一样本的细微差异和关联性。

核心思路:MoEGCL 的核心思路是在样本级别进行细粒度的图融合,并利用对比学习来对齐融合后的表示和视图特定的表示。通过构建 Ego 图并使用混合专家网络进行融合,可以更精细地捕捉样本在不同视图中的特征。对比学习则用于增强同一簇样本的表示相似性,从而提高聚类效果。

技术框架:MoEGCL 主要包含两个模块:混合自 Ego 图融合(MoEGF)和 Ego 图对比学习(EGCL)。首先,MoEGF 模块为每个样本构建 Ego 图,然后利用混合专家网络在样本级别融合这些 Ego 图。融合后的表示随后被输入到 EGCL 模块,该模块通过对比学习将融合的表示与视图特定的表示对齐。整个框架旨在学习更具判别性的多视图表示,从而提高聚类性能。

关键创新:MoEGCL 的关键创新在于提出了混合自 Ego 图融合(MoEGF)模块,该模块实现了样本级别的细粒度图融合。与传统的视图级别融合相比,MoEGF 能够更精细地捕捉样本在不同视图中的特征,从而学习到更具判别性的表示。此外,EGCL 模块通过对比学习增强了同一簇样本的表示相似性,进一步提高了聚类效果。

关键设计:MoEGF 模块使用混合专家网络来融合 Ego 图。每个专家网络负责学习特定视图的特征,而混合权重则根据样本的特征动态调整。EGCL 模块使用 InfoNCE 损失函数进行对比学习,该损失函数旨在最大化同一簇样本的表示相似性,同时最小化不同簇样本的表示相似性。具体的网络结构和参数设置需要根据具体数据集进行调整。

📊 实验亮点

MoEGCL 在多个基准数据集上进行了实验,结果表明其性能优于现有的多视图聚类方法。例如,在某些数据集上,MoEGCL 的聚类准确率(ACC)和归一化互信息(NMI)指标提升了 5% 以上。实验结果验证了 MoEGCL 在细粒度图融合和对比学习方面的有效性。

🎯 应用场景

MoEGCL 可应用于多种需要多视图数据聚类的场景,例如社交网络分析(基于用户行为、兴趣等多视图数据进行用户聚类)、生物信息学(基于基因表达、蛋白质相互作用等多视图数据进行疾病亚型分类)、图像聚类(基于不同特征提取方法得到的多视图图像数据进行图像聚类)等。该研究有助于提升多视图数据分析的准确性和效率。

📄 摘要(原文)

In recent years, the advancement of Graph Neural Networks (GNNs) has significantly propelled progress in Multi-View Clustering (MVC). However, existing methods face the problem of coarse-grained graph fusion. Specifically, current approaches typically generate a separate graph structure for each view and then perform weighted fusion of graph structures at the view level, which is a relatively rough strategy. To address this limitation, we present a novel Mixture of Ego-Graphs Contrastive Representation Learning (MoEGCL). It mainly consists of two modules. In particular, we propose an innovative Mixture of Ego-Graphs Fusion (MoEGF), which constructs ego graphs and utilizes a Mixture-of-Experts network to implement fine-grained fusion of ego graphs at the sample level, rather than the conventional view-level fusion. Additionally, we present the Ego Graph Contrastive Learning (EGCL) module to align the fused representation with the view-specific representation. The EGCL module enhances the representation similarity of samples from the same cluster, not merely from the same sample, further boosting fine-grained graph representation. Extensive experiments demonstrate that MoEGCL achieves state-of-the-art results in deep multi-view clustering tasks. The source code is publicly available at https://github.com/HackerHyper/MoEGCL.