Towards Human-Level 3D Relative Pose Estimation: Generalizable, Training-Free, with Single Reference

📄 arXiv: 2406.18453v2 📥 PDF

作者: Yuan Gao, Yajing Luo, Junhong Wang, Kui Jia, Gui-Song Xia

分类: cs.CV

发布日期: 2024-06-26 (更新: 2025-09-02)

备注: Accepted to IEEE TPAMI. The codes are available at https://github.com/ethanygao/training-free_generalizable_relative_pose

DOI: 10.1109/TPAMI.2025.3600413


💡 一句话要点

提出一种基于单张参考图、无训练的通用3D相对姿态估计方法

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 3D姿态估计 相对姿态 无监督学习 可微渲染 语义特征

📋 核心要点

  1. 现有方法在3D相对姿态估计中泛化性不足,需要大量标注数据和训练,难以适应新物体。
  2. 该方法利用RGB-D参考图像的2.5D形状感知、可微渲染和预训练语义特征,实现无训练的姿态估计。
  3. 实验表明,该方法在多个数据集上显著优于现有监督方法,尤其在跨数据集设置下表现突出。

📝 摘要(中文)

本文提出了一种新颖的3D通用相对姿态估计方法,该方法仅需单张查询-参考图像对,无需标注或训练,即可推断先前未见过的物体的相对姿态。该方法借鉴了人类的能力,即通过结合单张图像的3D/2.5D形状感知、渲染-比较模拟以及丰富的语义线索来实现粗略的参考-查询对应。具体而言,该方法利用RGB-D参考图像的2.5D形状来增强3D/2.5D形状感知,通过现成的可微渲染器实现渲染-比较范式,并利用预训练模型(如DINOv2)提取语义线索。可微渲染器以RGB纹理化的2.5D可旋转网格和语义图(由DINOv2从RGB输入获得)为输入,渲染出新的RGB和语义图(带有背面剔除)。通过比较渲染的RGB和语义图与查询图像,反向传播梯度以优化3D相对姿态。该方法无需标注或训练,即可应用于未见过的物体。在LineMOD、LM-O和YCB-V数据集上的大量实验表明,该无训练方法显著优于最先进的监督方法,尤其是在严格的Acc@5/10/15°指标和具有挑战性的跨数据集设置下。

🔬 方法详解

问题定义:论文旨在解决3D相对姿态估计问题,即给定一个参考图像和一个查询图像,估计查询图像相对于参考图像的3D旋转和平移。现有方法通常需要大量的标注数据进行训练,泛化能力较差,难以适应未见过的物体。

核心思路:论文的核心思路是模仿人类的认知方式,即利用单张图像的3D/2.5D形状感知、渲染-比较模拟以及丰富的语义线索来实现姿态估计。通过将参考图像渲染到不同的视角,并与查询图像进行比较,从而优化相对姿态。这种方法避免了对大量标注数据的依赖,提高了泛化能力。

技术框架:该方法主要包含以下几个模块:1) 2.5D形状感知模块,利用RGB-D参考图像提取2.5D形状信息;2) 语义特征提取模块,利用预训练模型(如DINOv2)提取RGB图像的语义特征;3) 可微渲染模块,将2.5D形状和语义特征渲染到新的视角;4) 姿态优化模块,通过比较渲染图像和查询图像,利用反向传播优化相对姿态。

关键创新:该方法最重要的创新点在于提出了一种无训练的3D相对姿态估计方法,该方法无需标注数据,即可应用于未见过的物体。此外,该方法还巧妙地利用了可微渲染技术,实现了端到端的姿态优化。

关键设计:该方法使用现成的可微渲染器,例如PyTorch3D,进行渲染。损失函数主要由两部分组成:RGB损失和语义损失。RGB损失衡量渲染图像和查询图像之间的RGB差异,语义损失衡量渲染图像和查询图像之间的语义差异。通过联合优化这两个损失函数,可以有效地提高姿态估计的准确性。背面剔除(back-surface culling)用于提高渲染效率和准确性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在LineMOD、LM-O和YCB-V数据集上显著优于现有的监督方法。例如,在LineMOD数据集上,该方法在Acc@5°指标下,比最先进的监督方法提高了超过10个百分点。此外,该方法在跨数据集设置下也表现出良好的泛化能力,表明其具有很强的实际应用价值。

🎯 应用场景

该研究成果可应用于机器人抓取、增强现实、三维重建等领域。例如,机器人可以利用该方法估计物体相对于自身的姿态,从而实现精确抓取。在增强现实中,该方法可以用于将虚拟物体与真实场景进行对齐。此外,该方法还可以用于三维重建,通过估计多个视角的相对姿态,从而重建出物体的三维模型。

📄 摘要(原文)

Humans can easily deduce the relative pose of a previously unseen object, without labeling or training, given only a single query-reference image pair. This is arguably achieved by incorporating i) 3D/2.5D shape perception from a single image, ii) render-and-compare simulation, and iii) rich semantic cue awareness to furnish (coarse) reference-query correspondence. Motivated by this, we propose a novel 3D generalizable relative pose estimation method by elaborating 3D/2.5D shape perception with a 2.5D shape from an RGB-D reference, fulfilling the render-and-compare paradigm with an off-the-shelf differentiable renderer, and leveraging the semantic cues from a pretrained model like DINOv2. Specifically, our differentiable renderer takes the 2.5D rotatable mesh textured by the RGB and the semantic maps (obtained by DINOv2 from the RGB input), then renders new RGB and semantic maps (with back-surface culling) under a novel rotated view. The refinement loss comes from comparing the rendered RGB and semantic maps with the query ones, back-propagating the gradients through the differentiable renderer to refine the 3D relative pose. As a result, \emph{our method can be readily applied to unseen objects, given only a single RGB-D reference, without labeling or training}. Extensive experiments on LineMOD, LM-O, and YCB-V show that our training-free method significantly outperforms the state-of-the-art supervised methods, especially under the rigorous \texttt{Acc@5/10/15}$^\circ$ metrics and the challenging cross-dataset settings.