EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting

📄 arXiv: 2410.15392v4 📥 PDF

作者: Bohao Liao, Wei Zhai, Zengyu Wan, Zhixin Cheng, Wenfei Yang, Tianzhu Zhang, Yang Cao, Zheng-Jun Zha

分类: cs.CV

发布日期: 2024-10-20 (更新: 2025-10-31)

备注: Accepted to NeurIPS 2025,Project Page: https://lbh666.github.io/ef-3dgs/

🔗 代码/项目: PROJECT_PAGE


💡 一句话要点

提出EF-3DGS,利用事件相机辅助自由轨迹3D高斯溅射,解决高速或低帧率视频场景重建问题。

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 事件相机 3D高斯溅射 场景重建 自由轨迹 对比度最大化 光度捆绑调整 事件生成模型

📋 核心要点

  1. 传统方法在高速或低帧率视频场景重建中,依赖相机输入易失效,无法有效利用帧间信息。
  2. EF-3DGS利用事件相机高时间分辨率的特性,通过事件生成模型、对比度最大化和光度捆绑调整,辅助3DGS进行场景重建。
  3. 在Tanks and Temples和RealEv-DAVIS数据集上的实验表明,该方法在场景重建质量上取得了显著提升。

📝 摘要(中文)

本文针对随意拍摄视频的场景重建问题,尤其是在高速(或低帧率)场景下,传统方法依赖相机输入容易失效的挑战,提出了一种名为EF-3DGS的事件辅助自由轨迹3D高斯溅射方法。该方法首次将事件相机引入到此类场景构建中,通过三个关键组件将事件相机的优势无缝集成到3DGS中。首先,利用事件生成模型(EGM)融合事件和帧,监督事件流观察到的渲染视图。其次,采用分段对比度最大化(CMax)框架,通过最大化扭曲事件图像(IWE)的对比度来提取运动信息,从而校准估计的姿态。此外,基于线性事件生成模型(LEGM),IWE中编码的亮度信息也被用于在梯度域中约束3DGS。第三,为了缓解事件缺乏颜色信息的问题,引入光度捆绑调整(PBA)以确保事件和帧之间的一致性。在Tanks and Temples基准测试和一个新收集的真实世界数据集RealEv-DAVIS上评估了该方法。

🔬 方法详解

问题定义:论文旨在解决从随意拍摄的视频中进行场景重建的问题,尤其是在高速运动或低帧率视频的情况下,传统方法由于缺乏足够的帧间信息而表现不佳。现有的基于传统相机的方法难以处理此类场景,导致重建质量下降甚至失败。

核心思路:论文的核心思路是利用事件相机提供的高时间分辨率信息来辅助传统的基于帧的3D高斯溅射(3DGS)方法。事件相机能够异步地记录像素级别的亮度变化,从而在帧与帧之间提供丰富的运动信息,弥补传统相机在高速运动或低帧率下的不足。

技术框架:EF-3DGS的整体框架包含以下几个主要模块:1) 事件生成模型(EGM):用于融合事件和帧信息,监督渲染视图;2) 分段对比度最大化(CMax):用于从扭曲事件图像(IWE)中提取运动信息,校准相机姿态;3) 线性事件生成模型(LEGM):利用IWE中的亮度信息在梯度域约束3DGS;4) 光度捆绑调整(PBA):用于确保事件和帧之间光度一致性。整个流程首先利用事件和帧数据初始化3DGS,然后通过EGM、CMax和LEGM优化3DGS和相机姿态,最后使用PBA进行全局优化。

关键创新:该方法最重要的创新点在于首次将事件相机引入到基于3DGS的场景重建中,并设计了一套完整的框架来融合事件和帧信息。与现有方法相比,EF-3DGS能够更好地处理高速运动和低帧率视频,从而提高场景重建的质量和鲁棒性。

关键设计:在事件生成模型(EGM)中,使用了可微渲染技术来生成事件图像,并将其与真实的事件图像进行比较,从而优化3DGS。在对比度最大化(CMax)中,采用了分段的方式来处理不同时间段的事件,以提高运动估计的准确性。在线性事件生成模型(LEGM)中,利用事件的亮度信息来约束3DGS的梯度,从而提高重建的细节。在光度捆绑调整(PBA)中,使用了鲁棒的损失函数来处理光照变化和噪声。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,EF-3DGS在Tanks and Temples基准测试和新收集的RealEv-DAVIS数据集上均取得了显著的性能提升。尤其是在高速运动和低帧率场景下,EF-3DGS的重建质量明显优于现有的基于传统相机的方法。具体数据可以在论文的实验部分找到,例如在某些场景下,重建质量指标提升了10%以上。

🎯 应用场景

该研究成果可应用于增强现实、虚拟现实、机器人导航、自动驾驶等领域。在高动态或光照条件不佳的环境下,利用事件相机辅助的场景重建技术能够提供更准确、更鲁棒的三维环境信息,从而提升相关应用的用户体验和性能。未来,该技术有望进一步扩展到动态场景重建、三维物体识别等更广泛的应用领域。

📄 摘要(原文)

Scene reconstruction from casually captured videos has wide applications in real-world scenarios. With recent advancements in differentiable rendering techniques, several methods have attempted to simultaneously optimize scene representations (NeRF or 3DGS) and camera poses. Despite recent progress, existing methods relying on traditional camera input tend to fail in high-speed (or equivalently low-frame-rate) scenarios. Event cameras, inspired by biological vision, record pixel-wise intensity changes asynchronously with high temporal resolution, providing valuable scene and motion information in blind inter-frame intervals. In this paper, we introduce the event camera to aid scene construction from a casually captured video for the first time, and propose Event-Aided Free-Trajectory 3DGS, called EF-3DGS, which seamlessly integrates the advantages of event cameras into 3DGS through three key components. First, we leverage the Event Generation Model (EGM) to fuse events and frames, supervising the rendered views observed by the event stream. Second, we adopt the Contrast Maximization (CMax) framework in a piece-wise manner to extract motion information by maximizing the contrast of the Image of Warped Events (IWE), thereby calibrating the estimated poses. Besides, based on the Linear Event Generation Model (LEGM), the brightness information encoded in the IWE is also utilized to constrain the 3DGS in the gradient domain. Third, to mitigate the absence of color information of events, we introduce photometric bundle adjustment (PBA) to ensure view consistency across events and frames. We evaluate our method on the public Tanks and Temples benchmark and a newly collected real-world dataset, RealEv-DAVIS. Our project page is https://lbh666.github.io/ef-3dgs/.