SaENeRF: Suppressing Artifacts in Event-based Neural Radiance Fields

📄 arXiv: 2504.16389v1 📥 PDF

作者: Yuanjian Wang, Yufei Deng, Rong Xiao, Jiahao Fan, Chenwei Tang, Deng Xiong, Jiancheng Lv

分类: cs.CV

发布日期: 2025-04-23

备注: Accepted by IJCNN 2025

🔗 代码/项目: GITHUB


💡 一句话要点

SaENeRF:提出自监督框架,抑制基于事件的神经辐射场重建伪影

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 事件相机 神经辐射场 三维重建 伪影抑制 自监督学习

📋 核心要点

  1. 现有基于事件的NeRF方法在早期学习阶段和事件相机噪声影响下,存在难以消除的伪影问题。
  2. SaENeRF通过归一化辐射变化和引入正则化损失,抑制伪影并提升重建质量,实现更稳定的学习。
  3. 实验结果表明,SaENeRF显著减少了重建伪影,并在视觉质量上优于现有技术。

📝 摘要(中文)

本文提出SaENeRF,一种新颖的自监督框架,旨在有效抑制基于事件相机的神经辐射场(NeRF)重建中的伪影,从而实现静态场景的3D一致、稠密和逼真的NeRF重建。现有方法虽有所进展,但仍受早期阶段激进网络学习和事件相机固有噪声导致的伪影困扰。SaENeRF通过归一化基于累积事件极性的预测辐射变化,促进场景表示构建的渐进式快速学习。此外,引入正则化损失,专门用于抑制光度变化低于事件阈值区域的伪影,并增强非零事件的光强度差异,从而提高重建场景的视觉保真度。大量实验表明,该方法显著减少伪影,并实现优于现有方法的重建质量。

🔬 方法详解

问题定义:论文旨在解决基于事件相机的神经辐射场(NeRF)重建中存在的伪影问题。现有方法在处理事件数据时,由于早期训练阶段的网络过度学习以及事件相机固有的噪声,导致重建结果中出现明显的伪影,影响了重建质量和视觉效果。

核心思路:SaENeRF的核心思路是通过自监督的方式,对预测的辐射变化进行归一化,并引入专门设计的正则化损失函数,从而抑制伪影的产生。辐射变化归一化能够促进网络更稳定、更快速地学习场景表示,而正则化损失则能够约束网络在光度变化较小区域的行为,并增强有效事件的光强度差异。

技术框架:SaENeRF的整体框架包括事件数据输入、辐射场预测、辐射变化归一化和损失函数计算等模块。首先,事件流被输入到神经辐射场网络中,网络预测每个点的颜色和密度。然后,基于累积的事件极性对预测的辐射变化进行归一化。最后,计算包括辐射变化损失、伪影抑制损失和光强度增强损失在内的总损失,并反向传播更新网络参数。

关键创新:SaENeRF的关键创新在于提出了辐射变化归一化方法和专门设计的正则化损失函数。辐射变化归一化能够有效地抑制早期训练阶段的过度学习,而正则化损失则能够针对性地减少伪影,并提高重建结果的视觉质量。这些创新使得SaENeRF能够在基于事件数据的NeRF重建中取得更好的效果。

关键设计:SaENeRF的关键设计包括:1) 使用累积事件极性进行辐射变化归一化,具体方法未知;2) 设计伪影抑制损失,用于惩罚光度变化低于事件阈值的区域;3) 设计光强度增强损失,用于提高非零事件的光强度差异。这些损失函数的设计目标是减少伪影,并提高重建结果的视觉保真度。具体参数设置和网络结构细节在论文中可能有所描述,但摘要中未提及。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

SaENeRF通过辐射变化归一化和正则化损失,显著减少了基于事件的NeRF重建中的伪影,提高了重建质量。实验结果表明,SaENeRF在视觉质量上优于现有方法,但具体性能数据和提升幅度未知,需要在论文中进一步查找。

🎯 应用场景

SaENeRF在机器人导航、自动驾驶、虚拟现实和增强现实等领域具有广泛的应用前景。该方法能够利用事件相机提供的高动态范围和低延迟特性,在高速运动和光照变化剧烈的场景中实现高质量的3D重建,为相关应用提供可靠的环境感知能力。未来,该技术有望进一步应用于动态场景重建和SLAM等任务。

📄 摘要(原文)

Event cameras are neuromorphic vision sensors that asynchronously capture changes in logarithmic brightness changes, offering significant advantages such as low latency, low power consumption, low bandwidth, and high dynamic range. While these characteristics make them ideal for high-speed scenarios, reconstructing geometrically consistent and photometrically accurate 3D representations from event data remains fundamentally challenging. Current event-based Neural Radiance Fields (NeRF) methods partially address these challenges but suffer from persistent artifacts caused by aggressive network learning in early stages and the inherent noise of event cameras. To overcome these limitations, we present SaENeRF, a novel self-supervised framework that effectively suppresses artifacts and enables 3D-consistent, dense, and photorealistic NeRF reconstruction of static scenes solely from event streams. Our approach normalizes predicted radiance variations based on accumulated event polarities, facilitating progressive and rapid learning for scene representation construction. Additionally, we introduce regularization losses specifically designed to suppress artifacts in regions where photometric changes fall below the event threshold and simultaneously enhance the light intensity difference of non-zero events, thereby improving the visual fidelity of the reconstructed scene. Extensive qualitative and quantitative experiments demonstrate that our method significantly reduces artifacts and achieves superior reconstruction quality compared to existing methods. The code is available at https://github.com/Mr-firework/SaENeRF.