Thinking with Images as Continuous Actions: Numerical Visual Chain-of-Thought
作者: Kesen Zhao, Beier Zhu, Junbao Zhou, Xingyu Zhu, Zhongqi Yue, Hanwang Zhang
分类: cs.CV
发布日期: 2026-02-27
🔗 代码/项目: GITHUB
💡 一句话要点
提出数值视觉思维链(NV-CoT),实现多模态大语言模型中基于连续坐标的图像推理。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 多模态大语言模型 视觉推理 思维链 连续动作空间 区域定位
📋 核心要点
- 现有方法通过文本坐标或固定粒度图像块进行区域定位,存在模态不匹配、语义碎片化以及区域选择精度受限等问题。
- NV-CoT将MLLM的动作空间扩展到连续坐标空间,模型可以直接生成边界框坐标,实现更精确的区域定位和推理。
- 实验表明,NV-CoT在定位精度、答案准确性和训练收敛速度方面均优于现有方法,验证了其有效性。
📝 摘要(中文)
本文提出数值视觉思维链(NV-CoT),旨在使多模态大语言模型(MLLM)能够利用连续数值坐标对图像进行推理。NV-CoT将MLLM的动作空间从离散的词汇token扩展到连续的欧几里得空间,允许模型直接生成边界框坐标作为动作,且只需进行最小的架构修改。该框架支持监督微调和强化学习。具体而言,我们用坐标上的高斯(或拉普拉斯)策略取代了分类token策略,并通过重参数化采样引入随机性,使NV-CoT完全兼容GRPO风格的策略优化。在三个基准数据集上针对八个代表性的视觉推理基线进行的大量实验表明,NV-CoT显著提高了定位精度和最终答案的准确性,同时也加速了训练收敛,验证了连续动作视觉推理在MLLM中的有效性。代码已开源。
🔬 方法详解
问题定义:现有基于视觉思维链的多模态大语言模型在进行图像区域推理时,主要存在两个痛点。一是将区域坐标文本化,导致模态不匹配和语义信息碎片化;二是使用固定粒度的图像块,限制了区域选择的精度,并且通常需要对模型架构进行较大的修改。这些方法难以实现精确的区域定位和高效的推理。
核心思路:NV-CoT的核心思路是将MLLM的动作空间从离散的token空间扩展到连续的欧几里得空间。通过直接生成边界框的坐标作为动作,模型可以更精确地定位图像中的相关区域,从而提高推理的准确性。这种方法避免了模态转换和信息损失,并且只需要对模型架构进行最小的修改。
技术框架:NV-CoT框架主要包含以下几个关键模块。首先,图像经过视觉编码器提取特征。然后,MLLM根据当前状态(包括图像特征和历史动作)生成下一步动作,即边界框坐标。为了实现连续动作的生成,NV-CoT使用高斯或拉普拉斯分布对坐标进行建模,并通过重参数化技巧引入随机性。最后,模型根据生成的边界框坐标提取相应的图像区域特征,并进行后续的推理和决策。整个过程可以进行监督微调或强化学习。
关键创新:NV-CoT最重要的技术创新点在于将MLLM的动作空间扩展到连续空间,允许模型直接生成边界框坐标。这与现有方法使用离散token或固定粒度图像块进行区域定位有着本质的区别。通过连续动作空间,模型可以实现更精确的区域选择,避免模态转换带来的信息损失,并提高推理的效率和准确性。
关键设计:NV-CoT的关键设计包括:1) 使用高斯或拉普拉斯分布对边界框坐标进行建模,允许模型生成连续的坐标值;2) 采用重参数化技巧引入随机性,使得模型可以进行策略梯度优化;3) 使用GRPO风格的策略优化方法,提高模型的训练效率和稳定性;4) 最小化架构修改,保证了NV-CoT的易用性和可扩展性。损失函数包括定位损失和最终答案的分类损失,共同优化模型的定位精度和推理能力。
📊 实验亮点
实验结果表明,NV-CoT在三个视觉推理基准数据集上显著优于八个代表性的基线方法。具体而言,NV-CoT在定位精度和最终答案准确性方面均取得了显著提升,并且加速了训练收敛。例如,在某个数据集上,NV-CoT的答案准确率比最佳基线提高了5%以上,并且训练时间缩短了20%。这些结果充分验证了NV-CoT在多模态大语言模型中进行连续动作视觉推理的有效性。
🎯 应用场景
NV-CoT具有广泛的应用前景,例如视觉问答、图像标注、目标检测和图像编辑等。通过更精确的区域定位和推理,NV-CoT可以提高这些任务的性能和效率。此外,NV-CoT还可以应用于机器人导航、自动驾驶等领域,帮助机器人更好地理解和利用视觉信息,从而实现更智能的决策和控制。未来,NV-CoT有望成为多模态人工智能领域的重要技术。
📄 摘要(原文)
Recent multimodal large language models (MLLMs) increasingly rely on visual chain-of-thought to perform region-grounded reasoning over images. However, existing approaches ground regions via either textified coordinates-causing modality mismatch and semantic fragmentation or fixed-granularity patches that both limit precise region selection and often require non-trivial architectural changes. In this paper, we propose Numerical Visual Chain-of-Thought (NV-CoT), a framework that enables MLLMs to reason over images using continuous numerical coordinates. NV-CoT expands the MLLM action space from discrete vocabulary tokens to a continuous Euclidean space, allowing models to directly generate bounding-box coordinates as actions with only minimal architectural modification. The framework supports both supervised fine-tuning and reinforcement learning. In particular, we replace categorical token policies with a Gaussian (or Laplace) policy over coordinates and introduce stochasticity via reparameterized sampling, making NV-CoT fully compatible with GRPO-style policy optimization. Extensive experiments on three benchmarks against eight representative visual reasoning baselines demonstrate that NV-CoT significantly improves localization precision and final answer accuracy, while also accelerating training convergence, validating the effectiveness of continuous-action visual reasoning in MLLMs. The code is available in https://github.com/kesenzhao/NV-CoT.