SeHDR: Single-Exposure HDR Novel View Synthesis via 3D Gaussian Bracketing
作者: Yiyu Li, Haoyuan Wang, Ke Xu, Gerhard Petrus Hancke, Rynson W. H. Lau
分类: cs.GR
发布日期: 2025-09-23
备注: ICCV 2025 accepted paper
💡 一句话要点
提出SeHDR以解决单曝光HDR新视图合成问题
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 高动态范围 新视图合成 3D高斯点云 单曝光 计算机视觉 图像处理 虚拟现实
📋 核心要点
- 现有方法通常需要多曝光的LDR图像,捕捉过程复杂且容易产生运动模糊等误差。
- SeHDR通过从单曝光的多视角LDR图像中学习HDR场景表示,利用3D高斯点云合成技术解决这一问题。
- 实验结果显示,SeHDR在HDR新视图合成上显著优于现有方法,提升了图像质量和渲染效果。
📝 摘要(中文)
本文提出SeHDR,一种新颖的高动态范围3D高斯点云合成方法,旨在利用单曝光的多视角低动态范围图像生成HDR新视图。与现有方法需要多曝光图像不同,SeHDR通过从单曝光的多视角LDR图像中学习HDR场景表示,避免了捕捉过程中的误差。该方法首先估计不同曝光的3D高斯,然后通过可微神经曝光融合技术将其整合为HDR高斯,最终实现新视图渲染。实验表明,SeHDR在性能上超越了现有方法及精心设计的基线。
🔬 方法详解
问题定义:本文旨在解决单曝光条件下的高动态范围新视图合成问题。现有方法依赖多曝光图像,导致捕捉过程繁琐且容易引入误差,如物体运动模糊和校准不准确等。
核心思路:SeHDR的核心思路是从单曝光的多视角LDR图像中估计不同曝光的3D高斯,并将其合并为HDR场景表示。这一方法通过学习基于球谐函数的颜色参数化,克服了传统方法的局限性。
技术框架:SeHDR的整体架构包括三个主要模块:首先,从单曝光LDR输入中学习基础3D高斯;其次,估计具有相同几何形状但颜色线性变化的多个3D高斯;最后,利用可微神经曝光融合技术将基础和估计的3D高斯整合为HDR高斯以实现新视图渲染。
关键创新:SeHDR的主要创新在于通过单曝光图像生成HDR场景表示,避免了多曝光带来的复杂性和潜在误差。这一方法在技术上突破了传统HDR合成的限制。
关键设计:在设计上,SeHDR使用了球谐函数来参数化颜色,并通过损失函数优化3D高斯的融合过程。网络结构上,采用了可微分的神经网络架构,以实现高效的曝光融合。通过这些设计,SeHDR在性能上实现了显著提升。
🖼️ 关键图片
📊 实验亮点
实验结果表明,SeHDR在HDR新视图合成任务中表现优异,相较于现有方法,图像质量提升显著,具体性能数据展示了在多个基准测试中均超越了精心设计的基线,验证了其有效性和优越性。
🎯 应用场景
SeHDR的研究成果在计算机视觉、虚拟现实和增强现实等领域具有广泛的应用潜力。通过生成高质量的HDR新视图,该方法可以提升图像渲染效果,改善用户体验,尤其是在动态场景和复杂光照条件下的应用场景中。未来,SeHDR还可能推动相关领域的技术进步,如实时图像处理和三维重建等。
📄 摘要(原文)
This paper presents SeHDR, a novel high dynamic range 3D Gaussian Splatting (HDR-3DGS) approach for generating HDR novel views given multi-view LDR images. Unlike existing methods that typically require the multi-view LDR input images to be captured from different exposures, which are tedious to capture and more likely to suffer from errors (e.g., object motion blurs and calibration/alignment inaccuracies), our approach learns the HDR scene representation from multi-view LDR images of a single exposure. Our key insight to this ill-posed problem is that by first estimating Bracketed 3D Gaussians (i.e., with different exposures) from single-exposure multi-view LDR images, we may then be able to merge these bracketed 3D Gaussians into an HDR scene representation. Specifically, SeHDR first learns base 3D Gaussians from single-exposure LDR inputs, where the spherical harmonics parameterize colors in a linear color space. We then estimate multiple 3D Gaussians with identical geometry but varying linear colors conditioned on exposure manipulations. Finally, we propose the Differentiable Neural Exposure Fusion (NeEF) to integrate the base and estimated 3D Gaussians into HDR Gaussians for novel view rendering. Extensive experiments demonstrate that SeHDR outperforms existing methods as well as carefully designed baselines.