EgoXtreme: A Dataset for Robust Object Pose Estimation in Egocentric Views under Extreme Conditions

📄 arXiv: 2603.25135v1 📥 PDF

作者: Taegyoon Yoon, Yegyu Han, Seojin Ji, Jaewoo Park, Sojeong Kim, Taein Kwon, Hyung-Sin Kim

分类: cs.CV

发布日期: 2026-03-26

备注: Camera ready version for CVPR 2026, appendix included

🔗 代码/项目: PROJECT_PAGE


💡 一句话要点

EgoXtreme:用于极端条件下以自我为中心的视角进行鲁棒物体姿态估计的数据集

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics) 支柱六:视频提取与匹配 (Video Extraction)

关键词: 6D姿态估计 自我中心视角 极端条件 数据集 运动模糊 光照变化 目标遮挡 智能眼镜

📋 核心要点

  1. 现有6D物体姿态估计基准难以应对真实场景中运动模糊、光照变化和遮挡等挑战,导致模型泛化能力不足。
  2. EgoXtreme数据集旨在通过模拟工业维护、运动和紧急救援等极端场景,引入严重的感知模糊,从而弥合实验室数据与真实应用之间的差距。
  3. 实验表明,现有方法在EgoXtreme数据集上表现不佳,图像复原方法效果有限,基于跟踪的方法略有提升,表明时序信息的重要性。

📝 摘要(中文)

智能眼镜作为一种有用的设备正在兴起,因为它在双手忙碌、眼睛专注于任务的情况下提供了大量的洞察力。为了理解穿戴者的上下文,以自我为中心的视角进行6D物体姿态估计变得至关重要。然而,现有的6D物体姿态估计基准测试未能捕捉到真实世界以自我为中心的应用程序的挑战,这些挑战通常由严重的运动模糊、动态光照和视觉遮挡所主导。这种差异在受控的实验室数据和混乱的真实世界应用之间造成了巨大的差距。为了弥合这一差距,我们引入了EgoXtreme,这是一个新的大规模6D姿态估计数据集,完全从以自我为中心的视角捕获。EgoXtreme具有三个具有挑战性的场景——工业维护、运动和紧急救援——旨在通过极端光照、严重运动模糊和烟雾引入严重的感知模糊。在EgoXtreme上对最先进的可泛化姿态估计器的评估表明,它们的泛化在极端条件下失败,尤其是在低光照下。我们进一步证明,简单地应用图像恢复(例如,去模糊)并不能为极端条件带来积极的改善。虽然基于跟踪的方法出现了性能提升,这意味着在快速运动场景中使用时间信息是有意义的。我们得出结论,EgoXtreme是开发和评估下一代足够鲁棒的姿态估计模型的重要资源,该模型适用于真实世界的以自我为中心的视觉。

🔬 方法详解

问题定义:现有6D物体姿态估计方法在真实场景,特别是以自我为中心的视角下,面临着严重的挑战。这些挑战主要来自于极端的光照条件(过亮或过暗)、剧烈的运动模糊以及频繁的物体遮挡。现有的数据集和基准测试无法充分模拟这些极端条件,导致模型在实验室环境中表现良好,但在实际应用中泛化能力较差。因此,需要一个更具挑战性的数据集来推动相关算法的发展。

核心思路:EgoXtreme的核心思路是创建一个包含大量真实场景数据,并且着重模拟极端条件下的以自我为中心视角的6D物体姿态估计数据集。通过引入工业维护、运动和紧急救援等具有代表性的场景,并人为地增加光照变化、运动模糊和遮挡等因素,来提高数据集的难度和真实性。这样可以更好地评估和训练模型在真实世界中的鲁棒性。

技术框架:EgoXtreme数据集的构建主要包括以下几个阶段:1) 场景选择:选择具有挑战性的工业维护、运动和紧急救援场景。2) 数据采集:使用智能眼镜等设备,从以自我为中心的视角采集图像和视频数据。3) 数据标注:对采集到的数据进行精确的6D物体姿态标注。4) 数据增强:通过模拟光照变化、运动模糊和遮挡等因素,增加数据的多样性和难度。5) 数据发布:将数据集及其相关代码发布,供研究人员使用。

关键创新:EgoXtreme数据集的关键创新在于其对极端条件的模拟和对以自我为中心视角的关注。与现有的数据集相比,EgoXtreme更加注重真实场景的复杂性和挑战性,能够更好地反映实际应用中遇到的问题。此外,EgoXtreme还提供了一套完整的评估指标和基线方法,方便研究人员进行比较和分析。

关键设计:EgoXtreme数据集的关键设计包括:1) 场景选择:选择具有代表性的工业维护、运动和紧急救援场景,涵盖了不同的光照条件、运动模式和物体类型。2) 数据采集:使用高质量的智能眼镜等设备,保证数据的清晰度和准确性。3) 数据标注:采用人工标注和自动标注相结合的方式,提高标注的效率和精度。4) 数据增强:通过模拟不同的光照变化、运动模糊和遮挡程度,增加数据的多样性和难度。5) 评估指标:采用常用的6D物体姿态估计评估指标,如ADD和ADD-S,以及针对极端条件下的鲁棒性评估指标。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,现有的通用姿态估计器在EgoXtreme数据集上表现不佳,尤其是在低光照条件下。简单地应用图像复原技术(如去模糊)并不能显著提升性能。基于跟踪的方法在一定程度上有所改善,表明利用时序信息在快速运动场景中具有重要意义。这些结果突显了EgoXtreme数据集的挑战性,并为未来的研究方向提供了指导。

🎯 应用场景

EgoXtreme数据集的研究成果可广泛应用于智能眼镜、增强现实、机器人等领域。例如,在工业维护中,可以帮助工人进行设备维修和操作指导;在运动领域,可以提供运动姿态分析和训练辅助;在紧急救援中,可以帮助救援人员进行现场评估和目标识别。该研究有助于提升相关技术在真实复杂环境下的应用能力。

📄 摘要(原文)

Smart glass is emerging as an useful device since it provides plenty of insights under hands-busy, eyes-on-task situations. To understand the context of the wearer, 6D object pose estimation in egocentric view is becoming essential. However, existing 6D object pose estimation benchmarks fail to capture the challenges of real-world egocentric applications, which are often dominated by severe motion blur, dynamic illumination, and visual obstructions. This discrepancy creates a significant gap between controlled lab data and chaotic real-world application. To bridge this gap, we introduce EgoXtreme, a new large-scale 6D pose estimation dataset captured entirely from an egocentric perspective. EgoXtreme features three challenging scenarios - industrial maintenance, sports, and emergency rescue - designed to introduce severe perceptual ambiguities through extreme lighting, heavy motion blur, and smoke. Evaluations of state-of-the-art generalizable pose estimators on EgoXtreme indicate that their generalization fails to hold in extreme conditions, especially under low light. We further demonstrate that simply applying image restoration (e.g., deblurring) offers no positive improvement for extreme conditions. While performance gain has appeared in tracking-based approach, implying using temporal information in fast-motion scenarios is meaningful. We conclude that EgoXtreme is an essential resource for developing and evaluating the next generation of pose estimation models robust enough for real-world egocentric vision. The dataset and code are available at https://taegyoun88.github.io/EgoXtreme/