ELoG-GS: Dual-Branch Gaussian Splatting with Luminance-Guided Enhancement for Extreme Low-light 3D Reconstruction
作者: Yuhao Liu, Dingju Wang, Ziyang Zheng
分类: cs.CV
发布日期: 2026-04-14
备注: Our method achieved a ranking of 9 out of 148 participants in Track 1 of the NTIRE 3DRR Challenge, as reported on the official competition website: https://www.codabench.org/competitions/13854/
🔗 代码/项目: GITHUB
💡 一句话要点
ELoG-GS:基于亮度引导增强的双分支高斯溅射,用于极端弱光3D重建
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics) 支柱七:动作重定向 (Motion Retargeting)
关键词: 弱光3D重建 高斯溅射 点云初始化 亮度引导 颜色增强
📋 核心要点
- 现有方法在极端弱光环境下进行3D重建时,面临光照不足、噪声干扰等问题,导致重建质量下降。
- ELoG-GS通过学习的点云初始化和亮度引导的颜色增强,稳定高斯溅射过程,提升重建的几何一致性和视觉逼真度。
- 在NTIRE Track 1基准测试中,ELoG-GS显著优于基线方法,证明了其在弱光3D重建方面的有效性。
📝 摘要(中文)
本文介绍了一种针对NTIRE 2026 3D修复与重建挑战赛(Track 1)的方法,该挑战赛专注于从退化的多视角输入中重建高质量的3D表示。挑战在于在极端弱光环境下恢复几何一致且逼真的3D场景。为了解决这个问题,我们提出了极端弱光优化高斯溅射(ELoG-GS),这是一个鲁棒的弱光3D重建流程,集成了基于学习的点云初始化和亮度引导的颜色增强,以实现稳定且逼真的高斯溅射。我们的方法结合了几何感知初始化和光度自适应策略,以提高在具有挑战性条件下的重建保真度。在NTIRE Track 1基准上的大量实验表明,我们的方法显著提高了重建质量,优于基线方法,实现了卓越的视觉保真度和几何一致性。所提出的方法为现实世界退化场景中的鲁棒3D重建提供了一种实用的解决方案。在最终测试阶段,我们的方法在官方平台排行榜上实现了18.6626的PSNR和0.6855的SSIM。
🔬 方法详解
问题定义:论文旨在解决极端弱光环境下,多视角图像3D重建质量差的问题。现有方法在弱光条件下,容易受到噪声和光照不均的影响,导致重建的几何结构不准确,纹理细节丢失,视觉效果不佳。
核心思路:论文的核心思路是结合学习的点云初始化和亮度引导的颜色增强,优化高斯溅射过程。通过学习初始化,可以提供更准确的初始几何结构,减少后续优化过程中的误差累积。亮度引导的颜色增强则可以有效提升图像的视觉质量,改善弱光条件下的纹理细节。
技术框架:ELoG-GS包含两个主要分支:几何分支和光度分支。几何分支负责点云的初始化,利用学习的方法预测初始点云的几何结构。光度分支则负责颜色增强,通过亮度信息引导颜色校正,提升图像的视觉质量。两个分支的结果最终融合到高斯溅射过程中,实现高质量的3D重建。
关键创新:该方法的主要创新在于结合了几何感知的点云初始化和光度自适应的颜色增强,并将其集成到高斯溅射框架中。这种双分支结构能够同时优化几何结构和视觉效果,从而在极端弱光条件下实现更鲁棒的3D重建。
关键设计:几何分支可能采用深度学习模型,例如卷积神经网络或Transformer,从多视角图像中预测初始点云。光度分支可能使用亮度相关的损失函数,例如感知损失或对抗损失,来指导颜色增强过程。高斯溅射过程中的参数设置,例如学习率、迭代次数等,也需要根据具体场景进行调整。
🖼️ 关键图片
📊 实验亮点
ELoG-GS在NTIRE Track 1基准测试中取得了显著的成果,PSNR达到18.6626,SSIM达到0.6855。这些数据表明,该方法在视觉质量和几何一致性方面均优于现有方法,能够在极端弱光条件下实现高质量的3D重建。代码已开源,方便研究人员进行复现和改进。
🎯 应用场景
该研究成果可应用于安防监控、自动驾驶、机器人导航等领域。在弱光或夜视环境下,高质量的3D重建能够帮助系统更好地感知周围环境,提高决策的准确性和可靠性。此外,该方法还可用于文物修复、医学影像等领域,为相关研究提供更清晰、更准确的数据支持。
📄 摘要(原文)
This paper presents our approach to the NTIRE 2026 3D Restoration and Reconstruction Challenge (Track 1), which focuses on reconstructing high-quality 3D representations from degraded multi-view inputs. The challenge involves recovering geometrically consistent and photorealistic 3D scenes in extreme low-light environments. To address this task, we propose Extreme Low-light Optimized Gaussian Splatting (ELoG-GS), a robust low-light 3D reconstruction pipeline that integrates learning-based point cloud initialization and luminance-guided color enhancement for stable and photorealistic Gaussian Splatting. Our method incorporates both geometry-aware initialization and photometric adaptation strategies to improve reconstruction fidelity under challenging conditions. Extensive experiments on the NTIRE Track 1 benchmark demonstrate that our approach significantly improves reconstruction quality over the baselines, achieving superior visual fidelity and geometric consistency. The proposed method provides a practical solution for robust 3D reconstruction in real-world degraded scenarios. In the final testing phase, our method achieved a PSNR of 18.6626 and an SSIM of 0.6855 on the official platform leaderboard. Code is available at https://github.com/lyh120/FSGS_EAPGS.