MR6D: Benchmarking 6D Pose Estimation for Mobile Robots
作者: Anas Gouda, Shrutarv Awasthi, Christian Blesing, Lokeshwaran Manohar, Frank Hoffmann, Alice Kirchheim
分类: cs.CV, cs.RO
发布日期: 2025-08-19
备注: accepted CVPR 2025 Workshop on Recovering 6D Object Pose (R6D)
🔗 代码/项目: HUGGINGFACE
💡 一句话要点
提出MR6D数据集以解决移动机器人6D姿态估计问题
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 6D姿态估计 移动机器人 数据集 工业环境 复杂遮挡 真实场景 性能评估
📋 核心要点
- 现有6D姿态估计方法主要针对小型家居物体,无法满足移动机器人在工业环境中的需求。
- MR6D数据集专为移动机器人设计,涵盖多种真实场景和物体,解决了远程视角和复杂遮挡问题。
- 初步实验表明,当前6D姿态估计方法在MR6D数据集上表现不佳,显示出改进的必要性。
📝 摘要(中文)
现有的6D姿态估计数据集主要集中在小型家居物体,限制了其在移动机器人领域的应用。移动平台通常不配备操控臂,需与更大物体互动,并面临远程感知、严重自遮挡和多样化相机视角等挑战。MR6D数据集专为工业环境中的移动机器人设计,包含92个真实场景和16种独特物体,捕捉了移动平台特有的挑战。初步实验显示,当前的6D姿态估计方法在这些环境下表现不佳,2D分割也是一个障碍。MR6D为开发和评估适应移动机器人需求的姿态估计方法奠定了基础。
🔬 方法详解
问题定义:论文旨在解决现有6D姿态估计方法在移动机器人应用中的不足,特别是在工业环境中面对的远程感知和复杂遮挡问题。现有数据集多集中于小型物体,无法有效评估移动平台的性能。
核心思路:MR6D数据集通过引入92个真实场景和16种独特物体,专注于移动机器人在动态和静态交互中的姿态估计,旨在提供一个更具挑战性和代表性的评估基准。
技术框架:MR6D数据集的构建包括场景选择、物体配置和数据采集等多个阶段,确保涵盖各种视角和遮挡情况。数据集的设计考虑了移动机器人在实际应用中的多样性和复杂性。
关键创新:MR6D的最大创新在于其针对移动机器人特有的挑战进行设计,提供了一个全新的数据集,填补了现有数据集在工业环境中的空白。
关键设计:数据集中包含多种物体的不同配置和视角,采用高质量的图像采集技术,确保数据的真实性和多样性。同时,数据集的标注也考虑了复杂的遮挡情况,以提高姿态估计的准确性。
📊 实验亮点
初步实验结果显示,当前的6D姿态估计方法在MR6D数据集上表现不佳,尤其是在处理复杂遮挡和远程视角时,准确率显著低于预期。这表明了对现有技术的改进需求,为未来研究指明了方向。
🎯 应用场景
MR6D数据集的潜在应用领域包括工业自动化、智能制造和移动机器人导航等。通过提供一个更具挑战性的评估基准,该研究将推动6D姿态估计技术的发展,提升移动机器人在复杂环境中的操作能力,具有重要的实际价值和未来影响。
📄 摘要(原文)
Existing 6D pose estimation datasets primarily focus on small household objects typically handled by robot arm manipulators, limiting their relevance to mobile robotics. Mobile platforms often operate without manipulators, interact with larger objects, and face challenges such as long-range perception, heavy self-occlusion, and diverse camera perspectives. While recent models generalize well to unseen objects, evaluations remain confined to household-like settings that overlook these factors. We introduce MR6D, a dataset designed for 6D pose estimation for mobile robots in industrial environments. It includes 92 real-world scenes featuring 16 unique objects across static and dynamic interactions. MR6D captures the challenges specific to mobile platforms, including distant viewpoints, varied object configurations, larger object sizes, and complex occlusion/self-occlusion patterns. Initial experiments reveal that current 6D pipelines underperform in these settings, with 2D segmentation being another hurdle. MR6D establishes a foundation for developing and evaluating pose estimation methods tailored to the demands of mobile robotics. The dataset is available at https://huggingface.co/datasets/anas-gouda/mr6d.