A Closer Look at Multimodal Representation Collapse

📄 arXiv: 2505.22483v2 📥 PDF

作者: Abhra Chaudhuri, Anjan Dutta, Tu Bui, Serban Georgescu

分类: cs.LG, cs.AI, cs.CV

发布日期: 2025-05-28 (更新: 2025-08-14)

备注: International Conference on Machine Learning (ICML) 2025 (Spotlight)

🔗 代码/项目: PROJECT_PAGE


💡 一句话要点

揭示多模态表征坍塌机理,提出显式基向量重分配算法以提升多模态融合性能。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多模态融合 模态坍塌 表征解耦 基向量重分配 知识蒸馏

📋 核心要点

  1. 多模态融合模型存在模态坍塌问题,即模型仅依赖部分模态,忽略其他模态的信息。
  2. 论文核心思想是当噪声模态特征与预测模态特征纠缠时,会发生模态坍塌,通过解耦表征可以缓解。
  3. 论文提出显式基向量重分配算法,并在多个多模态数据集上验证了其有效性,可用于处理缺失模态。

📝 摘要(中文)

本文旨在深入理解多模态表征坍塌现象,即多模态融合模型倾向于仅依赖部分模态而忽略其他模态。研究表明,当一个模态的噪声特征通过融合头中的共享神经元与另一个模态的预测特征纠缠时,就会发生模态坍塌,从而掩盖了前一模态预测特征的积极贡献。进一步证明,跨模态知识蒸馏通过释放学生编码器中的秩瓶颈,隐式地解耦了这些表征,从而在不影响任何模态预测特征的情况下,对融合头输出进行去噪。基于以上发现,本文提出了一种通过显式基向量重分配来防止模态坍塌的算法,并应用于处理缺失模态问题。在多个多模态基准数据集上的大量实验验证了本文的理论主张。

🔬 方法详解

问题定义:多模态表征坍塌是指在多模态融合任务中,模型训练后只依赖于少数模态的信息,而忽略其他模态的信息。现有方法未能有效解决该问题,导致模型性能下降,尤其是在某些模态缺失的情况下,模型鲁棒性较差。

核心思路:论文的核心思路是,模态坍塌的根本原因是不同模态的特征在融合过程中产生了纠缠,特别是当一个模态的噪声特征与另一个模态的预测特征通过共享神经元连接时,噪声会掩盖有效信息。因此,解耦不同模态的表征,防止噪声模态干扰预测模态,是解决模态坍塌的关键。

技术框架:论文首先分析了模态坍塌的成因,然后提出了基于显式基向量重分配的算法。该算法的核心在于,通过重新分配融合头中的基向量,使得每个模态的特征能够被独立地表示,从而减少模态间的干扰。具体来说,该算法包括以下步骤:1)对每个模态的特征进行编码;2)在融合头中,使用一组基向量来表示每个模态的特征;3)通过优化算法,重新分配基向量,使得每个模态的特征能够被独立地表示;4)使用重分配后的特征进行融合和预测。

关键创新:论文的关键创新在于提出了显式基向量重分配算法,该算法能够有效地解耦不同模态的表征,从而防止模态坍塌。与现有方法相比,该算法不需要额外的训练数据或复杂的网络结构,易于实现和部署。此外,该算法还可以应用于处理缺失模态问题,通过重构缺失模态的特征,提高模型的鲁棒性。

关键设计:在显式基向量重分配算法中,关键的设计包括:1)基向量的数量:基向量的数量需要根据不同模态的特征维度进行调整,以保证每个模态的特征能够被充分表示;2)优化算法:论文采用了一种基于梯度下降的优化算法,用于重新分配基向量。该算法的目标是最小化不同模态特征之间的相关性,从而实现解耦;3)损失函数:论文设计了一种新的损失函数,用于衡量不同模态特征之间的相关性。该损失函数包括两部分:一部分用于衡量不同模态特征之间的互信息,另一部分用于衡量每个模态特征的熵。通过最小化该损失函数,可以实现不同模态特征的解耦。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文在多个多模态基准数据集上进行了实验,包括CMU-MOSI、CMU-MOSEI和SIMS。实验结果表明,提出的显式基向量重分配算法能够有效地防止模态坍塌,并显著提高模型的性能。例如,在CMU-MOSI数据集上,该算法将模型的准确率提高了5%以上,并且在处理缺失模态问题时,模型的鲁棒性也得到了显著提升。与现有的知识蒸馏方法相比,该算法在性能和效率方面都具有优势。

🎯 应用场景

该研究成果可广泛应用于多模态信息融合领域,例如视频理解、语音识别、图像描述等。在自动驾驶领域,可以融合视觉、雷达、激光雷达等多种传感器信息,提高环境感知能力和安全性。在医疗诊断领域,可以融合影像、基因、临床数据等多种信息,辅助医生进行疾病诊断和治疗方案制定。此外,该研究对于处理缺失模态问题具有重要意义,可以提高模型在实际应用中的鲁棒性。

📄 摘要(原文)

We aim to develop a fundamental understanding of modality collapse, a recently observed empirical phenomenon wherein models trained for multimodal fusion tend to rely only on a subset of the modalities, ignoring the rest. We show that modality collapse happens when noisy features from one modality are entangled, via a shared set of neurons in the fusion head, with predictive features from another, effectively masking out positive contributions from the predictive features of the former modality and leading to its collapse. We further prove that cross-modal knowledge distillation implicitly disentangles such representations by freeing up rank bottlenecks in the student encoder, denoising the fusion-head outputs without negatively impacting the predictive features from either modality. Based on the above findings, we propose an algorithm that prevents modality collapse through explicit basis reallocation, with applications in dealing with missing modalities. Extensive experiments on multiple multimodal benchmarks validate our theoretical claims. Project page: https://abhrac.github.io/mmcollapse/.