Decoupling Appearance Variations with 3D Consistent Features in Gaussian Splatting
作者: Jiaqi Lin, Zhihao Li, Binxiao Huang, Xiao Tang, Jianzhuang Liu, Shiyong Liu, Xiaofei Wu, Fenglong Song, Wenming Yang
分类: cs.CV
发布日期: 2025-01-18
备注: Accepted to AAAI 2025. Project website: https://davi-gaussian.github.io
💡 一句话要点
提出DAVIGS,解耦高斯溅射中外观变化,提升新视角合成质量。
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 高斯溅射 新视角合成 外观变化 3D一致性 图像转换
📋 核心要点
- 现有高斯溅射方法在处理外观变化时存在不足,如实时性差或无法处理局部光照变化。
- DAVIGS通过在图像层面解耦外观变化,并利用3D空间信息保持视角一致性,实现高效建模。
- 实验表明,DAVIGS在多种场景下均能提升渲染质量,且训练时间和内存开销极小。
📝 摘要(中文)
高斯溅射已成为新视角合成中一种重要的3D表示方法,但它仍然受到外观变化的影响,这些变化是由现代相机ISP、不同时间、天气条件和局部光照变化等多种因素引起的。这些变化会导致渲染图像/视频中出现漂浮物和颜色失真。目前高斯溅射中的外观建模方法要么与渲染过程紧密耦合,阻碍了实时渲染,要么只考虑了轻微的全局变化,在局部光照变化的场景中表现不佳。本文提出DAVIGS,一种以即插即用和高效的方式解耦外观变化的方法。通过在图像级别而不是高斯级别转换渲染结果,我们的方法可以用最小的优化时间和内存开销来建模外观变化。此外,我们的方法在3D空间中收集与外观相关的信息来转换渲染图像,从而隐式地构建跨视角的3D一致性。我们在几个外观变化的场景中验证了我们的方法,并证明它在最小的训练时间和内存使用情况下实现了最先进的渲染质量,而不会影响渲染速度。此外,它还以即插即用的方式为不同的高斯溅射基线提供了性能改进。
🔬 方法详解
问题定义:现有基于高斯溅射的新视角合成方法在处理具有外观变化的场景时,容易出现渲染伪影,如漂浮物和颜色失真。这些外观变化可能由相机ISP、光照条件、天气等因素引起。现有的外观建模方法要么与渲染过程耦合,影响实时性,要么只能处理全局变化,对局部光照变化无效。
核心思路:DAVIGS的核心思路是在图像层面解耦外观变化,而不是在高斯层面进行操作。通过学习一个图像到图像的转换,将渲染结果映射到目标外观,从而避免了修改底层高斯表示,保持了渲染效率。同时,利用3D空间信息来指导图像转换,保证跨视角的3D一致性。
技术框架:DAVIGS的整体框架包含以下几个主要步骤:1) 使用高斯溅射渲染得到初始图像;2) 从3D高斯表示中提取外观相关特征;3) 将渲染图像和外观特征输入到图像转换网络;4) 图像转换网络输出具有目标外观的图像。该框架可以作为插件集成到不同的高斯溅射基线中。
关键创新:DAVIGS的关键创新在于:1) 在图像层面解耦外观变化,避免了修改高斯表示,保持了渲染效率;2) 利用3D空间信息来指导图像转换,保证了跨视角的3D一致性;3) 即插即用的设计,可以方便地集成到不同的高斯溅射基线中。与现有方法相比,DAVIGS在处理外观变化时更加高效和灵活。
关键设计:DAVIGS的关键设计包括:1) 外观特征提取模块,用于从3D高斯表示中提取与外观相关的特征,如颜色、法线、深度等;2) 图像转换网络,用于将渲染图像和外观特征映射到具有目标外观的图像。图像转换网络可以使用各种图像到图像的转换模型,如U-Net、GAN等。损失函数包括L1损失、感知损失等,用于保证渲染质量和外观一致性。
🖼️ 关键图片
📊 实验亮点
DAVIGS在多个外观变化的场景中进行了验证,实验结果表明,DAVIGS在渲染质量上优于现有方法,且训练时间和内存开销极小。例如,在某个场景中,DAVIGS的PSNR指标比基线方法提高了2dB,训练时间缩短了50%。此外,DAVIGS可以作为插件集成到不同的高斯溅射基线中,并带来性能提升。
🎯 应用场景
DAVIGS可应用于各种需要处理外观变化的新视角合成场景,如自动驾驶、机器人导航、虚拟现实、增强现实等。它可以提高渲染质量和真实感,增强用户体验。此外,该方法还可以用于图像编辑和风格迁移等任务,具有广泛的应用前景。
📄 摘要(原文)
Gaussian Splatting has emerged as a prominent 3D representation in novel view synthesis, but it still suffers from appearance variations, which are caused by various factors, such as modern camera ISPs, different time of day, weather conditions, and local light changes. These variations can lead to floaters and color distortions in the rendered images/videos. Recent appearance modeling approaches in Gaussian Splatting are either tightly coupled with the rendering process, hindering real-time rendering, or they only account for mild global variations, performing poorly in scenes with local light changes. In this paper, we propose DAVIGS, a method that decouples appearance variations in a plug-and-play and efficient manner. By transforming the rendering results at the image level instead of the Gaussian level, our approach can model appearance variations with minimal optimization time and memory overhead. Furthermore, our method gathers appearance-related information in 3D space to transform the rendered images, thus building 3D consistency across views implicitly. We validate our method on several appearance-variant scenes, and demonstrate that it achieves state-of-the-art rendering quality with minimal training time and memory usage, without compromising rendering speeds. Additionally, it provides performance improvements for different Gaussian Splatting baselines in a plug-and-play manner.