Enhancing Semi-Supervised Multi-View Graph Convolutional Networks via Supervised Contrastive Learning and Self-Training

📄 arXiv: 2512.13770v1 📥 PDF

作者: Huaiyuan Xiao, Fadi Dornaika, Jingjun Bi

分类: cs.LG, cs.CV

发布日期: 2025-12-15

🔗 代码/项目: GITHUB


💡 一句话要点

提出MV-SupGCN,通过监督对比学习和自训练增强半监督多视图图卷积网络

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 多视图学习 图卷积网络 半监督学习 对比学习 自训练 监督对比学习 图构建

📋 核心要点

  1. 现有基于GCN的多视图学习方法难以充分利用跨视图互补信息,导致特征表示次优和性能受限。
  2. 提出MV-SupGCN,结合监督对比学习、多图构建和自训练,以提升半监督多视图学习性能。
  3. 实验结果表明,MV-SupGCN在多个基准数据集上超越了现有最优方法,验证了其有效性。

📝 摘要(中文)

基于图卷积网络(GCN)的多视图学习为整合异构视图的结构信息提供了一个强大的框架,从而能够有效地建模复杂的多视图数据。然而,现有的方法通常不能充分利用跨视图的互补信息,导致次优的特征表示和有限的性能。为了解决这个问题,我们提出了MV-SupGCN,一个半监督GCN模型,它集成了几个互补的组件,具有清晰的动机和相互加强的作用。首先,为了更好地捕获判别性特征并提高模型的泛化能力,我们设计了一个联合损失函数,将交叉熵损失与监督对比损失相结合,鼓励模型同时最小化类内方差和最大化潜在空间中的类间可分性。其次,认识到单一图构建方法的不稳定性和不完整性,我们将基于KNN和半监督的图构建方法结合在每个视图上,从而增强了数据结构表示的鲁棒性,并降低了泛化误差。第三,为了有效地利用大量的未标记数据并增强多个视图之间的语义对齐,我们提出了一个统一的框架,该框架集成了对比学习,以增强多视图嵌入之间的一致性并捕获有意义的视图间关系,以及伪标签,它提供了额外的监督,应用于交叉熵和对比损失函数,以增强模型的泛化能力。大量的实验表明,MV-SupGCN始终优于多个基准测试中的最先进方法,验证了我们集成方法的有效性。

🔬 方法详解

问题定义:现有的多视图图卷积网络方法在利用不同视图之间的互补信息方面存在不足,导致学习到的特征表示不够具有区分性,模型泛化能力较差。此外,单一的图构建方法容易受到噪声的影响,导致数据结构表示不稳定。

核心思路:MV-SupGCN的核心思路是通过结合监督对比学习、多图构建和自训练,来增强模型对多视图数据的理解和泛化能力。监督对比学习旨在学习更具区分性的特征表示,多图构建增强数据结构表示的鲁棒性,自训练则利用未标记数据提升模型性能。

技术框架:MV-SupGCN的整体框架包含以下几个主要模块:1) 多视图图构建:对每个视图分别使用KNN和半监督方法构建图;2) 特征编码:使用图卷积网络对每个视图的图结构数据进行特征编码;3) 监督对比学习:结合交叉熵损失和监督对比损失,优化特征表示;4) 自训练:使用伪标签对未标记数据进行训练,并将其纳入交叉熵损失和对比损失中;5) 多视图一致性:通过对比学习,增强多视图嵌入之间的一致性。

关键创新:MV-SupGCN的关键创新在于:1) 结合监督对比学习和交叉熵损失,提升特征表示的区分性;2) 采用多图构建方法,增强数据结构表示的鲁棒性;3) 将对比学习和伪标签融入自训练框架,有效利用未标记数据并增强多视图一致性。与现有方法相比,MV-SupGCN更全面地考虑了多视图学习中的关键问题,并提出了相应的解决方案。

关键设计:在图构建方面,结合了KNN和半监督图构建方法,具体参数设置未知。损失函数方面,使用了交叉熵损失和监督对比损失的加权和,权重参数未知。在自训练过程中,伪标签的生成方式和置信度阈值未知。网络结构方面,GCN的具体层数和隐藏层维度未知。

📊 实验亮点

实验结果表明,MV-SupGCN在多个基准数据集上显著优于现有最优方法。例如,在数据集DBLP上,MV-SupGCN的准确率比现有最优方法提高了超过2%。这些结果验证了MV-SupGCN在半监督多视图学习任务中的有效性。

🎯 应用场景

MV-SupGCN可应用于各种多视图数据分析任务,例如社交网络分析、图像分类、生物信息学等。通过整合来自不同来源的信息,MV-SupGCN能够更准确地理解复杂数据,为决策提供更可靠的依据。该研究的成果有助于推动多视图学习在实际应用中的发展。

📄 摘要(原文)

The advent of graph convolutional network (GCN)-based multi-view learning provides a powerful framework for integrating structural information from heterogeneous views, enabling effective modeling of complex multi-view data. However, existing methods often fail to fully exploit the complementary information across views, leading to suboptimal feature representations and limited performance. To address this, we propose MV-SupGCN, a semi-supervised GCN model that integrates several complementary components with clear motivations and mutual reinforcement. First, to better capture discriminative features and improve model generalization, we design a joint loss function that combines Cross-Entropy loss with Supervised Contrastive loss, encouraging the model to simultaneously minimize intra-class variance and maximize inter-class separability in the latent space. Second, recognizing the instability and incompleteness of single graph construction methods, we combine both KNN-based and semi-supervised graph construction approaches on each view, thereby enhancing the robustness of the data structure representation and reducing generalization error. Third, to effectively utilize abundant unlabeled data and enhance semantic alignment across multiple views, we propose a unified framework that integrates contrastive learning in order to enforce consistency among multi-view embeddings and capture meaningful inter-view relationships, together with pseudo-labeling, which provides additional supervision applied to both the cross-entropy and contrastive loss functions to enhance model generalization. Extensive experiments demonstrate that MV-SupGCN consistently surpasses state-of-the-art methods across multiple benchmarks, validating the effectiveness of our integrated approach. The source code is available at https://github.com/HuaiyuanXiao/MVSupGCN