Adam SLAM - the last mile of camera calibration with 3DGS

📄 arXiv: 2508.20526v1 📥 PDF

作者: Matthieu Gendrin, Stéphane Pateux, Xiaoran Jiang, Théo Ladune, Luce Morin

分类: cs.CV

发布日期: 2025-08-28

期刊: ORASIS 2025, ISEN Yncréa Ouest, Jun 2025, Le Croisic, France. hal-05131219


💡 一句话要点

Adam SLAM:利用3DGS微调相机标定,提升新视角合成质量

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 相机标定 3DGS 新视角合成 反向传播 优化算法

📋 核心要点

  1. 相机标定精度直接影响新视角合成质量,但真实场景缺乏精确的标定真值。
  2. 利用3DGS模型,通过反向传播新视角颜色损失来优化相机参数,实现相机标定的微调。
  3. 实验表明,该方法在3DGS参考数据集上,平均PSNR提高了0.4 dB,显著提升了新视角合成质量。

📝 摘要(中文)

相机标定的质量对于评估新视角合成的进展至关重要,因为标定上的1像素误差会对重建质量产生显著影响。由于真实场景缺乏ground truth,标定质量通常通过新视角合成的质量来评估。本文提出了一种利用3DGS模型微调相机标定的方法,通过反向传播新视角颜色损失来优化相机参数。仅通过新的标定,在3DGS参考数据集中,平均PSNR提高了0.4 dB。虽然微调可能耗时较长,其适用性取决于训练时间的要求,但对于参考场景(如Mip-NeRF 360)的标定,新视角质量至关重要。

🔬 方法详解

问题定义:论文旨在解决相机标定不准导致新视角合成质量下降的问题。现有方法在真实场景中难以获得精确的相机标定,并且标定误差会对新视角合成质量产生显著影响。因此,如何有效地微调相机标定,提高新视角合成质量是一个重要的挑战。

核心思路:论文的核心思路是利用3DGS模型作为场景的表示,通过优化相机参数来最小化新视角合成的颜色损失。这种方法将相机标定问题转化为一个优化问题,可以通过反向传播来求解。通过不断调整相机参数,可以使3DGS模型渲染出的图像与真实图像更加接近,从而提高相机标定的精度。

技术框架:该方法主要包含以下几个步骤:1) 使用初始相机参数构建3DGS模型;2) 使用3DGS模型渲染新视角图像;3) 计算渲染图像与真实图像之间的颜色损失;4) 通过反向传播,根据颜色损失更新相机参数;5) 重复步骤2-4,直到相机参数收敛。整个过程通过优化相机参数,使得3DGS模型能够更好地拟合真实场景,从而提高相机标定的精度。

关键创新:该方法最重要的创新点在于将3DGS模型与相机标定相结合,利用3DGS模型作为场景的表示,通过优化相机参数来提高标定精度。与传统方法相比,该方法不需要额外的标定板或其他辅助设备,可以直接在真实场景中进行标定。此外,该方法还可以利用新视角合成的颜色损失作为优化目标,从而更加有效地提高标定精度。

关键设计:在具体实现中,论文使用了L1损失作为颜色损失函数。相机参数的优化使用了Adam优化器,学习率设置为一个较小的值,以保证优化过程的稳定性。此外,为了避免过拟合,论文还使用了正则化技术,对相机参数进行约束。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,使用该方法微调相机标定后,在3DGS参考数据集上,平均PSNR提高了0.4 dB。这一结果表明,该方法能够有效地提高相机标定的精度,从而提升新视角合成的质量。此外,实验还表明,该方法对于Mip-NeRF 360等复杂场景也具有良好的适用性。

🎯 应用场景

该研究成果可应用于增强现实、虚拟现实、机器人导航、三维重建等领域。精确的相机标定能够显著提升这些应用的用户体验和性能。例如,在AR/VR中,更准确的标定可以提高虚拟物体与真实场景的对齐精度,增强沉浸感。在机器人导航中,精确的标定可以提高机器人对环境的感知能力,从而实现更可靠的自主导航。

📄 摘要(原文)

The quality of the camera calibration is of major importance for evaluating progresses in novel view synthesis, as a 1-pixel error on the calibration has a significant impact on the reconstruction quality. While there is no ground truth for real scenes, the quality of the calibration is assessed by the quality of the novel view synthesis. This paper proposes to use a 3DGS model to fine tune calibration by backpropagation of novel view color loss with respect to the cameras parameters. The new calibration alone brings an average improvement of 0.4 dB PSNR on the dataset used as reference by 3DGS. The fine tuning may be long and its suitability depends on the criticity of training time, but for calibration of reference scenes, such as Mip-NeRF 360, the stake of novel view quality is the most important.