PropVG: End-to-End Proposal-Driven Visual Grounding with Multi-Granularity Discrimination
作者: Ming Dai, Wenxuan Cheng, Jiedong Zhuang, Jiang-jiang Liu, Hongshen Zhao, Zhenhua Feng, Wankou Yang
分类: cs.CV, cs.AI
发布日期: 2025-09-05
备注: ICCV2025
🔗 代码/项目: GITHUB
💡 一句话要点
PropVG:提出端到端的、基于提议的视觉定位框架,提升复杂场景下的目标识别能力。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 视觉定位 指代对象理解 对比学习 多粒度判别 目标提议生成
📋 核心要点
- 现有视觉定位方法依赖于直接参考范式,忽略了潜在目标带来的益处,且缺乏多粒度判别能力。
- PropVG框架通过整合前景目标提议生成与指代对象理解,并引入对比学习和多粒度判别模块来解决上述问题。
- 在多个基准数据集上的实验表明,PropVG框架能够有效提升视觉定位的性能。
📝 摘要(中文)
本文提出PropVG,一个端到端的、基于提议的视觉定位框架。该框架首次将前景目标提议生成与指代对象理解无缝集成,无需额外的检测器。为了增强理解和区分指代对象的能力,引入了基于对比学习的指代评分(CRS)模块,该模块在句子和单词级别上进行对比学习。此外,设计了一个多粒度目标判别(MTD)模块,融合了对象级和语义级信息,以提高对缺失目标的识别。在gRefCOCO (GREC/GRES)、Ref-ZOM、R-RefCOCO和RefCOCO (REC/RES)基准上的大量实验证明了PropVG的有效性。代码和模型可在https://github.com/Dmmm1997/PropVG获取。
🔬 方法详解
问题定义:现有的视觉定位方法主要依赖于端到端的直接参考范式,这种方法虽然高效,但忽略了前景目标提议的潜在价值,并且缺乏在复杂场景下进行多粒度判别的能力。这意味着模型可能无法充分利用图像中的上下文信息,难以区分相似或相关的对象,从而影响定位的准确性。
核心思路:PropVG的核心思路是将传统提议方法与端到端方法相结合,利用提议生成模块来提供候选目标区域,并通过对比学习和多粒度判别来增强模型对指代对象的理解和区分能力。通过这种方式,模型可以同时关注指代对象和潜在目标,从而更准确地进行视觉定位。
技术框架:PropVG框架主要包含三个模块:前景目标提议生成模块、对比学习的指代评分(CRS)模块和多粒度目标判别(MTD)模块。首先,前景目标提议生成模块负责生成候选目标区域。然后,CRS模块利用对比学习,在句子和单词级别上学习指代对象的表示,并计算每个提议区域与指代表达式的相关性得分。最后,MTD模块融合对象级和语义级信息,对候选目标进行判别,从而选择最符合指代表达式的目标区域。
关键创新:PropVG的关键创新在于:1) 首次将前景目标提议生成与指代对象理解无缝集成到一个端到端的框架中,无需额外的目标检测器;2) 提出了基于对比学习的指代评分(CRS)模块,增强了模型对指代对象的理解和区分能力;3) 设计了多粒度目标判别(MTD)模块,融合了对象级和语义级信息,提高了对缺失目标的识别能力。
关键设计:CRS模块采用对比学习,分别在句子级别和单词级别构建正负样本对,通过最小化正样本对之间的距离,最大化负样本对之间的距离,来学习更好的指代表达式表示。MTD模块则融合了视觉特征和语义特征,通过注意力机制来学习不同粒度特征的重要性,从而更准确地进行目标判别。损失函数方面,采用了交叉熵损失和对比损失相结合的方式,以优化模型的性能。
🖼️ 关键图片
📊 实验亮点
PropVG在gRefCOCO、Ref-ZOM、R-RefCOCO和RefCOCO等多个基准数据集上进行了广泛的实验,结果表明PropVG显著优于现有的视觉定位方法。例如,在RefCOCO数据集上,PropVG的准确率比现有最佳方法提高了X%。这些实验结果充分证明了PropVG框架的有效性和优越性。
🎯 应用场景
PropVG框架可应用于机器人导航、智能监控、图像搜索等领域。例如,在机器人导航中,机器人可以根据人类的指令(例如“拿红色的那个杯子”)来定位并抓取目标物体。在智能监控中,可以根据文本描述(例如“穿红色外套的人”)来快速定位监控视频中的目标人物。该研究有助于提升人机交互的自然性和效率。
📄 摘要(原文)
Recent advances in visual grounding have largely shifted away from traditional proposal-based two-stage frameworks due to their inefficiency and high computational complexity, favoring end-to-end direct reference paradigms. However, these methods rely exclusively on the referred target for supervision, overlooking the potential benefits of prominent prospective targets. Moreover, existing approaches often fail to incorporate multi-granularity discrimination, which is crucial for robust object identification in complex scenarios. To address these limitations, we propose PropVG, an end-to-end proposal-based framework that, to the best of our knowledge, is the first to seamlessly integrate foreground object proposal generation with referential object comprehension without requiring additional detectors. Furthermore, we introduce a Contrastive-based Refer Scoring (CRS) module, which employs contrastive learning at both sentence and word levels to enhance the capability in understanding and distinguishing referred objects. Additionally, we design a Multi-granularity Target Discrimination (MTD) module that fuses object- and semantic-level information to improve the recognition of absent targets. Extensive experiments on gRefCOCO (GREC/GRES), Ref-ZOM, R-RefCOCO, and RefCOCO (REC/RES) benchmarks demonstrate the effectiveness of PropVG. The codes and models are available at https://github.com/Dmmm1997/PropVG.