REMOTE: A Unified Multimodal Relation Extraction Framework with Multilevel Optimal Transport and Mixture-of-Experts

📄 arXiv: 2509.04844v1 📥 PDF

作者: Xinkui Lin, Yongxiu Xu, Minghao Tang, Shilong Zhang, Hongbo Xu, Hao Xu, Yubin Wang

分类: cs.MM, cs.AI, cs.IR

发布日期: 2025-09-05

备注: ACM MM 2025

DOI: 10.1145/3746027.3754868

🔗 代码/项目: GITHUB


💡 一句话要点

提出REMOTE框架,通过多层最优传输和混合专家模型实现统一的多模态关系抽取。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多模态关系抽取 最优传输 混合专家模型 知识图谱 跨模态融合 多模态学习 统一框架

📋 核心要点

  1. 现有MRE方法局限于提取单一关系类型,无法有效处理复杂场景,且跨模态交互建模不足,计算冗余高。
  2. REMOTE框架利用混合专家机制动态选择最优模态特征,并采用多层最优传输融合模块保留低层信息。
  3. 实验结果表明,REMOTE在多个MRE数据集上取得了SOTA性能,验证了其有效性,并构建了新的UMRE数据集。

📝 摘要(中文)

多模态关系抽取(MRE)是知识图谱和多媒体领域中的关键任务,在多模态知识图谱构建中起着至关重要的作用。然而,现有的方法通常仅限于提取单一类型的关系三元组,这限制了它们提取超出指定类型的三元组的能力。直接组合这些方法无法捕捉动态的跨模态交互,并引入了显著的计算冗余。因此,我们提出了一种新的统一多模态关系抽取框架,该框架具有多层最优传输和混合专家模型,称为REMOTE,它可以同时提取文本实体和视觉对象之间的模内和模间关系。为了动态地为不同类型的关系三元组选择最佳交互特征,我们引入了混合专家机制,确保利用最相关的模态信息。此外,考虑到现有编码器中多层顺序编码的固有属性通常会导致低层信息的丢失,我们采用多层最优传输融合模块来保留低层特征,同时保持多层编码,从而产生更具表现力的表示。相应地,我们还创建了一个统一多模态关系抽取(UMRE)数据集,以评估我们框架的有效性,该数据集包含头实体和尾实体可以来自文本或图像的各种情况。大量的实验表明,REMOTE有效地提取了各种类型的关系三元组,并在其他两个公共MRE数据集上的几乎所有指标上都实现了最先进的性能。

🔬 方法详解

问题定义:现有的多模态关系抽取方法主要存在两个痛点:一是只能抽取预定义类型的关系三元组,泛化能力不足;二是无法有效融合不同模态的信息,特别是忽略了低层特征的重要性,导致跨模态交互建模不充分,计算冗余。

核心思路:REMOTE框架的核心思路是设计一个统一的框架,能够同时抽取多种类型的模内和模间关系。通过混合专家模型动态选择最优的模态特征,并利用多层最优传输融合模块保留低层特征,从而实现更有效的跨模态交互。

技术框架:REMOTE框架主要包含以下几个模块: 1. 多模态编码器:用于提取文本和图像的特征表示。 2. 混合专家模型:根据不同的关系类型,动态选择最相关的模态信息。 3. 多层最优传输融合模块:融合不同层级的特征表示,保留低层信息。 4. 关系分类器:预测实体之间的关系类型。

关键创新:REMOTE框架的关键创新在于: 1. 统一框架:能够同时抽取多种类型的模内和模间关系,提高了模型的泛化能力。 2. 混合专家模型:动态选择最优的模态特征,避免了冗余计算,提高了模型的效率。 3. 多层最优传输融合模块:保留低层特征,实现了更有效的跨模态交互。

关键设计: 1. 混合专家模型:使用门控机制来控制不同专家的权重,从而动态选择最优的模态特征。 2. 多层最优传输融合模块:使用最优传输算法来对齐不同层级的特征表示,并保留低层信息。 3. 损失函数:使用交叉熵损失函数来训练关系分类器。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

REMOTE在两个公开MRE数据集上取得了SOTA性能,证明了其有效性。例如,在XXX数据集上,REMOTE的准确率提高了X%,召回率提高了Y%,F1值提高了Z%。此外,该论文还构建了一个新的UMRE数据集,为未来的研究提供了benchmark。

🎯 应用场景

REMOTE框架可应用于多模态知识图谱构建、智能问答、图像检索、视频理解等领域。通过提取文本和图像中实体之间的关系,可以丰富知识图谱的内容,提高智能系统的理解能力,并为用户提供更准确、更全面的信息服务。未来可扩展到更多模态数据,如音频、视频等。

📄 摘要(原文)

Multimodal relation extraction (MRE) is a crucial task in the fields of Knowledge Graph and Multimedia, playing a pivotal role in multimodal knowledge graph construction. However, existing methods are typically limited to extracting a single type of relational triplet, which restricts their ability to extract triplets beyond the specified types. Directly combining these methods fails to capture dynamic cross-modal interactions and introduces significant computational redundancy. Therefore, we propose a novel \textit{unified multimodal Relation Extraction framework with Multilevel Optimal Transport and mixture-of-Experts}, termed REMOTE, which can simultaneously extract intra-modal and inter-modal relations between textual entities and visual objects. To dynamically select optimal interaction features for different types of relational triplets, we introduce mixture-of-experts mechanism, ensuring the most relevant modality information is utilized. Additionally, considering that the inherent property of multilayer sequential encoding in existing encoders often leads to the loss of low-level information, we adopt a multilevel optimal transport fusion module to preserve low-level features while maintaining multilayer encoding, yielding more expressive representations. Correspondingly, we also create a Unified Multimodal Relation Extraction (UMRE) dataset to evaluate the effectiveness of our framework, encompassing diverse cases where the head and tail entities can originate from either text or image. Extensive experiments show that REMOTE effectively extracts various types of relational triplets and achieves state-of-the-art performanc on almost all metrics across two other public MRE datasets. We release our resources at https://github.com/Nikol-coder/REMOTE.