Fast Low-light Enhancement and Deblurring for 3D Dark Scenes

📄 arXiv: 2603.08133v1 📥 PDF

作者: Feng Zhang, Jinglong Wang, Ze Li, Yanghong Zhou, Yang Chen, Lei Chen, Xiatian Zhu

分类: cs.CV

发布日期: 2026-03-09

备注: 5 pages, 2 figures, Accepted at ICASSP 2026


💡 一句话要点

FLED-GS:快速低光增强与去模糊的三维暗场景重建框架

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 低光增强 三维重建 去模糊 新视角合成 噪声抑制

📋 核心要点

  1. 现有方法难以处理低光、噪声和运动模糊等复合退化场景下的新视角合成问题,且2D预处理易引入伪影。
  2. FLED-GS通过交替进行增强和重建,并引入亮度锚点进行渐进式恢复,有效抑制噪声放大。
  3. 实验结果表明,FLED-GS在训练和渲染速度上显著优于LuSh-NeRF,性能提升明显。

📝 摘要(中文)

本文提出了一种名为FLED-GS的快速低光增强与去模糊框架,用于解决低光照、噪声和运动模糊图像的新视角合成问题。现有的体渲染方法难以处理复合退化,而顺序的2D预处理由于相互依赖性会引入伪影。FLED-GS将3D场景恢复重新定义为增强和重建的交替循环。具体来说,FLED-GS插入多个中间亮度锚点以实现渐进式恢复,防止噪声放大损害去模糊或几何结构。每次迭代都使用现成的2D去模糊器锐化输入,然后执行噪声感知的3DGS重建,估计并抑制噪声,同时为下一层生成干净的先验。实验表明,FLED-GS优于最先进的LuSh-NeRF,实现了21倍的训练速度和11倍的渲染速度。

🔬 方法详解

问题定义:论文旨在解决在低光照、高噪声和运动模糊等复杂退化条件下,如何高效且高质量地进行三维场景重建和新视角合成的问题。现有方法,如直接应用NeRF或先进行2D图像增强再进行3D重建,存在对复合退化处理能力不足、易引入伪影等问题。特别是,简单的2D预处理可能会放大噪声,从而影响后续的去模糊和几何重建。

核心思路:论文的核心思路是将3D场景的恢复过程分解为增强和重建的交替循环。通过在增强过程中引入中间亮度锚点,实现逐步恢复,避免噪声在早期阶段被过度放大。同时,利用噪声感知的3D高斯溅射(3DGS)重建,在重建过程中估计并抑制噪声,为后续的增强提供更干净的先验信息。

技术框架:FLED-GS框架主要包含两个交替进行的阶段:低光增强和噪声感知的3DGS重建。在低光增强阶段,使用现成的2D去模糊器对输入图像进行锐化,并利用亮度锚点进行亮度调整。在噪声感知的3DGS重建阶段,利用增强后的图像进行3D场景重建,同时估计场景中的噪声水平,并将其用于抑制噪声。这两个阶段交替进行,直到达到预定的迭代次数。

关键创新:该方法最重要的创新点在于将3D场景恢复问题重新定义为增强和重建的交替循环,并引入了中间亮度锚点和噪声感知的3DGS重建。这种交替循环的方式能够有效地抑制噪声放大,并利用3D重建的结果为增强提供更准确的先验信息。与现有方法相比,FLED-GS能够更好地处理复合退化,并获得更高的重建质量和更快的速度。

关键设计:在低光增强阶段,亮度锚点的数量和位置是关键参数,需要根据具体场景进行调整。在噪声感知的3DGS重建阶段,噪声估计的方法和噪声抑制的策略是关键设计。论文可能采用了某种形式的正则化或损失函数来约束噪声估计,并使用某种滤波或平滑技术来抑制噪声。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

FLED-GS在实验中表现出显著的性能优势,相较于LuSh-NeRF,训练速度提升了21倍,渲染速度提升了11倍。这表明FLED-GS在保证重建质量的同时,极大地提高了效率,使其更适用于实际应用场景。具体的量化指标(如PSNR、SSIM等)的提升幅度未知,但从速度提升来看,该方法具有很强的竞争力。

🎯 应用场景

该研究成果可应用于自动驾驶、机器人导航、安防监控等领域,尤其是在光照条件恶劣的环境下。通过提升三维场景重建的质量和效率,可以为这些应用提供更可靠的环境感知能力。此外,该方法还可以应用于老旧照片修复、医学图像增强等领域,具有广泛的应用前景。

📄 摘要(原文)

Novel view synthesis from low-light, noisy, and motion-blurred imagery remains a valuable and challenging task. Current volumetric rendering methods struggle with compound degradation, and sequential 2D preprocessing introduces artifacts due to interdependencies. In this work, we introduce FLED-GS, a fast low-light enhancement and deblurring framework that reformulates 3D scene restoration as an alternating cycle of enhancement and reconstruction. Specifically, FLED-GS inserts several intermediate brightness anchors to enable progressive recovery, preventing noise blow-up from harming deblurring or geometry. Each iteration sharpens inputs with an off-the-shelf 2D deblurrer and then performs noise-aware 3DGS reconstruction that estimates and suppresses noise while producing clean priors for the next level. Experiments show FLED-GS outperforms state-of-the-art LuSh-NeRF, achieving 21$\times$ faster training and 11$\times$ faster rendering.