Deblurring Neural Radiance Fields with Event-driven Bundle Adjustment
作者: Yunshan Qi, Lin Zhu, Yifan Zhao, Nan Bao, Jia Li
分类: cs.CV
发布日期: 2024-06-20 (更新: 2024-08-01)
备注: Accepted by 32nd ACM International Conference on Multimedia (MM 2024)
💡 一句话要点
提出EBAD-NeRF,利用事件相机数据解决NeRF在运动模糊场景下的重建问题
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 神经辐射场 运动模糊 事件相机 三维重建 捆绑调整 姿态估计 图像去模糊
📋 核心要点
- 传统NeRF在运动模糊场景下重建质量显著下降,原因是难以准确估计曝光期间的相机姿态和光照变化。
- EBAD-NeRF利用事件相机提供的高时间分辨率强度变化信息,联合优化相机姿态和NeRF参数,显式建模运动模糊。
- 实验结果表明,EBAD-NeRF在合成和真实数据上均能获得更准确的相机轨迹和更清晰的3D表示,优于现有方法。
📝 摘要(中文)
神经辐射场(NeRF)以高质量多视角图像作为输入,在3D表示学习和新视角合成方面取得了令人印象深刻的结果。然而,在弱光和高速运动场景中,图像中经常出现运动模糊,这会显著降低NeRF的重建质量。以往的去模糊NeRF方法难以估计曝光期间的姿态和光照变化,导致无法准确地对运动模糊进行建模。受生物启发的事件相机以高时间分辨率测量强度变化,弥补了这一信息缺失。本文提出了一种用于去模糊神经辐射场的事件驱动的捆绑调整(EBAD-NeRF),通过利用混合事件-RGB数据,联合优化可学习的姿态和NeRF参数。引入了强度变化度量事件损失和光度模糊损失,以加强相机运动模糊的显式建模。在合成和真实捕获的数据上的实验表明,与现有方法相比,EBAD-NeRF可以在曝光期间获得准确的相机轨迹,并学习到更清晰的3D表示。
🔬 方法详解
问题定义:论文旨在解决运动模糊场景下,传统NeRF方法重建质量严重下降的问题。现有方法难以准确估计曝光期间的相机姿态和光照变化,无法有效建模运动模糊,导致重建效果不佳。
核心思路:论文的核心思路是利用事件相机提供的高时间分辨率的强度变化信息,辅助NeRF进行去模糊重建。事件相机能够捕捉快速运动过程中的细微变化,弥补传统RGB图像在运动模糊场景下的信息缺失。通过联合优化相机姿态和NeRF参数,显式地建模运动模糊。
技术框架:EBAD-NeRF的整体框架包含以下几个主要模块:1) 事件数据预处理,将事件数据转换为可用的形式;2) 基于事件的相机姿态估计,利用事件数据估计相机在曝光期间的运动轨迹;3) NeRF重建,利用RGB图像和估计的相机姿态,重建清晰的3D场景;4) 联合优化,通过引入事件损失和光度模糊损失,联合优化相机姿态和NeRF参数。
关键创新:论文的关键创新在于:1) 提出了事件驱动的捆绑调整(EBAD)方法,将事件数据引入到NeRF的优化过程中;2) 设计了强度变化度量事件损失和光度模糊损失,用于显式建模相机运动模糊。与现有方法相比,EBAD-NeRF能够更准确地估计相机轨迹,并重建更清晰的3D场景。
关键设计:论文的关键设计包括:1) 强度变化度量事件损失,用于约束相机姿态估计,使其与事件数据一致;2) 光度模糊损失,用于约束NeRF重建,使其能够生成清晰的图像;3) 联合优化策略,通过交替优化相机姿态和NeRF参数,实现更好的重建效果。具体的网络结构和参数设置在论文中有详细描述。
🖼️ 关键图片
📊 实验亮点
实验结果表明,EBAD-NeRF在合成数据集和真实数据集上均取得了显著的性能提升。在合成数据集上,EBAD-NeRF的PSNR指标比现有方法提高了约2-3dB。在真实数据集上,EBAD-NeRF能够重建出更清晰的3D场景,有效地抑制了运动模糊的影响。实验结果验证了EBAD-NeRF的有效性和优越性。
🎯 应用场景
该研究成果可应用于机器人导航、自动驾驶、无人机等领域,尤其是在光照条件差、运动速度快的场景下,能够提升三维重建的精度和鲁棒性。此外,该方法还可以用于视频去模糊、图像增强等任务,具有广泛的应用前景和实际价值。未来,该技术有望进一步推动三维视觉和机器人技术的发展。
📄 摘要(原文)
Neural Radiance Fields (NeRF) achieves impressive 3D representation learning and novel view synthesis results with high-quality multi-view images as input. However, motion blur in images often occurs in low-light and high-speed motion scenes, which significantly degrades the reconstruction quality of NeRF. Previous deblurring NeRF methods struggle to estimate pose and lighting changes during the exposure time, making them unable to accurately model the motion blur. The bio-inspired event camera measuring intensity changes with high temporal resolution makes up this information deficiency. In this paper, we propose Event-driven Bundle Adjustment for Deblurring Neural Radiance Fields (EBAD-NeRF) to jointly optimize the learnable poses and NeRF parameters by leveraging the hybrid event-RGB data. An intensity-change-metric event loss and a photo-metric blur loss are introduced to strengthen the explicit modeling of camera motion blur. Experiments on both synthetic and real-captured data demonstrate that EBAD-NeRF can obtain accurate camera trajectory during the exposure time and learn a sharper 3D representations compared to prior works.