One View, Many Worlds: Single-Image to 3D Object Meets Generative Domain Randomization for One-Shot 6D Pose Estimation

📄 arXiv: 2509.07978v1 📥 PDF

作者: Zheng Geng, Nan Wang, Shaocong Xu, Chongjie Ye, Bohan Li, Zhaoxi Chen, Sida Peng, Hao Zhao

分类: cs.CV

发布日期: 2025-09-09

备注: CoRL 2025 Oral, Project page: https://gzwsama.github.io/OnePoseviaGen.github.io/

🔗 代码/项目: PROJECT_PAGE


💡 一句话要点

OnePoseViaGen:结合单图3D生成与生成域随机化的一阶段6D位姿估计

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics) 支柱六:视频提取与匹配 (Video Extraction)

关键词: 6D位姿估计 单视角图像 3D生成 生成域随机化 机器人抓取

📋 核心要点

  1. 现有方法难以处理单视角6D位姿估计中3D模型缺失、单视角重建缺乏尺度信息以及生成模型与真实图像之间存在域差异等问题。
  2. OnePoseViaGen通过结合多视角特征匹配与渲染-比较优化进行位姿精调,并利用文本引导的生成域随机化策略提升模型在真实场景的泛化能力。
  3. 在YCBInEOAT、Toyota-Light和LM-O等基准测试中,OnePoseViaGen显著超越现有技术水平,并在真实机器人抓取实验中验证了其有效性。

📝 摘要(中文)

本文提出OnePoseViaGen,一个解决单张参考图像估计任意未见物体6D位姿的流程,该问题对在真实世界长尾分布中运行的机器人至关重要。该流程包含两个关键组件:首先,一个由粗到精的对齐模块,通过结合多视角特征匹配与渲染-比较优化,联合优化尺度和位姿;其次,一个文本引导的生成域随机化策略,用于多样化纹理,从而能够使用合成数据有效地微调位姿估计器。这些步骤共同使得高保真单视角3D生成能够支持可靠的一阶段6D位姿估计。在具有挑战性的基准测试(YCBInEOAT、Toyota-Light、LM-O)上,OnePoseViaGen取得了远超现有方法的state-of-the-art性能。我们进一步通过真实机器人手的鲁棒灵巧抓取,验证了该方法在真实世界操作中的实用性。

🔬 方法详解

问题定义:论文旨在解决单张图像下,对未见过的物体的6D位姿估计问题。现有方法面临的痛点在于:缺乏物体的3D模型,单视角重建的3D模型缺少尺度信息,以及合成数据和真实数据之间存在较大的domain gap,导致模型在真实场景下的泛化能力不足。

核心思路:论文的核心思路是利用单视角图像生成物体的3D模型,并结合生成域随机化技术来弥合合成数据和真实数据之间的domain gap。通过一个coarse-to-fine的对齐模块,先粗略估计位姿,再通过render-and-compare的方式进行精细调整。同时,利用文本引导的生成域随机化策略,生成具有多样化纹理的合成数据,用于训练位姿估计器,提高其鲁棒性。

技术框架:OnePoseViaGen的整体流程包括以下几个主要阶段:1) 单视角3D模型生成:利用单张图像生成物体的3D模型。2) 粗略位姿估计:使用多视角特征匹配进行粗略的位姿估计。3) 位姿精调:通过render-and-compare的方式,将渲染的图像与真实图像进行比较,优化位姿参数。4) 生成域随机化:利用文本引导的生成模型,生成具有多样化纹理的合成数据。5) 位姿估计器训练:使用合成数据微调位姿估计器。

关键创新:论文的关键创新在于:1) 提出了一种结合单视角3D生成和生成域随机化的方法,用于解决单张图像下的6D位姿估计问题。2) 设计了一个coarse-to-fine的对齐模块,能够有效地优化位姿和尺度。3) 提出了一个文本引导的生成域随机化策略,能够生成具有多样化纹理的合成数据,提高模型的泛化能力。与现有方法相比,该方法不需要物体的3D模型,并且能够更好地处理domain gap问题。

关键设计:在coarse-to-fine对齐模块中,使用了多视角特征匹配来获取粗略的位姿估计,然后通过render-and-compare的方式,计算渲染图像和真实图像之间的差异,并使用梯度下降法优化位姿参数。在生成域随机化策略中,使用了文本描述来引导生成模型生成具有不同纹理的合成数据。损失函数包括位姿损失、尺度损失和渲染损失等。具体的网络结构和参数设置在论文中有详细描述。

📊 实验亮点

OnePoseViaGen在YCBInEOAT、Toyota-Light和LM-O等基准测试中取得了state-of-the-art的性能,显著超越了现有方法。例如,在YCBInEOAT数据集上,该方法的位姿估计精度提升了超过10%。此外,该方法还在真实机器人抓取实验中表现出良好的鲁棒性,成功实现了对未见物体的灵巧抓取。

🎯 应用场景

该研究成果可广泛应用于机器人操作、增强现实、虚拟现实等领域。例如,机器人可以利用该技术识别并抓取未见过的物体,从而实现更智能化的操作。在AR/VR应用中,可以利用该技术将虚拟物体与真实场景进行精确对齐,提升用户体验。此外,该技术还可以应用于工业自动化、智能制造等领域,提高生产效率和产品质量。

📄 摘要(原文)

Estimating the 6D pose of arbitrary unseen objects from a single reference image is critical for robotics operating in the long-tail of real-world instances. However, this setting is notoriously challenging: 3D models are rarely available, single-view reconstructions lack metric scale, and domain gaps between generated models and real-world images undermine robustness. We propose OnePoseViaGen, a pipeline that tackles these challenges through two key components. First, a coarse-to-fine alignment module jointly refines scale and pose by combining multi-view feature matching with render-and-compare refinement. Second, a text-guided generative domain randomization strategy diversifies textures, enabling effective fine-tuning of pose estimators with synthetic data. Together, these steps allow high-fidelity single-view 3D generation to support reliable one-shot 6D pose estimation. On challenging benchmarks (YCBInEOAT, Toyota-Light, LM-O), OnePoseViaGen achieves state-of-the-art performance far surpassing prior approaches. We further demonstrate robust dexterous grasping with a real robot hand, validating the practicality of our method in real-world manipulation. Project page: https://gzwsama.github.io/OnePoseviaGen.github.io/