Gaussian Graph Network: Learning Efficient and Generalizable Gaussian Representations from Multi-view Images

📄 arXiv: 2503.16338v1 📥 PDF

作者: Shengjun Zhang, Xin Fei, Fangfu Liu, Haixu Song, Yueqi Duan

分类: cs.CV

发布日期: 2025-03-20

备注: NeurIPS 2024


💡 一句话要点

提出高斯图网络,从多视角图像中学习高效且泛化的高斯表示,提升新视角合成效果。

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 高斯图网络 新视角合成 三维重建 多视角图像 图神经网络

📋 核心要点

  1. 现有方法在多视角图像的新视角合成中,简单组合像素对齐的高斯表示,忽略了高斯间的关系,导致性能瓶颈。
  2. 本文提出高斯图网络(GGN),通过构建高斯图建模不同视角高斯组的关系,实现高斯级别的消息传递和特征融合。
  3. 实验表明,GGN使用更少的高斯数量,在RealEstate10K和ACID数据集上实现了更高的渲染速度和更好的图像质量。

📝 摘要(中文)

本文提出了一种高斯图网络(GGN),用于生成高效且可泛化的高斯表示。现有方法简单地组合来自多个视角的像素对齐高斯作为场景表示,未能充分捕捉不同图像中高斯之间的关系,导致伪影和额外的内存开销。GGN通过构建高斯图来建模来自不同视角的高斯组之间的关系。为了支持高斯级别的消息传递,本文重新定义了高斯表示上的基本图操作,使每个高斯都能从其连接的高斯组中受益,实现高斯特征融合。此外,设计了一个高斯池化层来聚合各种高斯组,以实现高效的表示。在大型RealEstate10K和ACID数据集上的实验表明,该方法具有高效性和泛化性。与最先进的方法相比,该模型使用更少的高斯,并以更高的渲染速度实现了更好的图像质量。

🔬 方法详解

问题定义:现有基于3D高斯溅射(3DGS)的新视角合成方法,特别是那些旨在实现泛化的前馈方法,通常直接组合来自多个视角的像素对齐高斯表示。这种简单组合忽略了不同视角高斯之间的关系,导致冗余表示、伪影以及额外的内存开销。因此,如何有效地利用多视角信息,学习紧凑且泛化的场景表示是一个关键问题。

核心思路:本文的核心思路是利用图神经网络(GNN)来建模不同视角高斯之间的关系。通过构建高斯图,将来自不同视角的、可能代表同一场景区域的高斯分组连接起来,从而实现高斯之间的信息传递和特征融合。这种方法允许每个高斯受益于其邻居的信息,从而产生更鲁棒和高效的场景表示。

技术框架:GGN的整体框架包括以下几个主要步骤:1) 从多视角图像中提取像素对齐的高斯表示;2) 构建高斯图,其中节点代表高斯组,边代表高斯组之间的关系;3) 在高斯图上进行消息传递,利用重新定义的高斯表示上的图操作进行高斯特征融合;4) 使用高斯池化层聚合不同的高斯组,得到最终的场景表示;5) 使用渲染模块将场景表示渲染成图像。

关键创新:GGN的关键创新在于:1) 提出了高斯图的概念,用于建模多视角高斯之间的关系;2) 重新定义了高斯表示上的基本图操作,使其能够支持高斯级别的消息传递和特征融合;3) 设计了高斯池化层,用于聚合不同的高斯组,实现高效的场景表示。与现有方法相比,GGN能够更有效地利用多视角信息,生成更紧凑和鲁棒的场景表示。

关键设计:高斯图的构建方式是根据高斯在不同视角图像中的投影位置和特征相似度来确定的。消息传递过程使用了一种改进的图卷积操作,该操作考虑了高斯表示的特殊性质,例如均值、方差和颜色。高斯池化层使用了一种加权平均策略,根据高斯的重要性对不同的高斯组进行聚合。损失函数包括渲染损失和正则化损失,用于优化高斯表示和提高泛化能力。具体的网络结构和参数设置在论文中有详细描述。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在RealEstate10K和ACID数据集上的实验结果表明,GGN在保持甚至超过现有方法图像质量的前提下,显著减少了高斯数量,并提高了渲染速度。具体来说,与state-of-the-art方法相比,GGN使用更少的高斯数量实现了更高的PSNR和SSIM指标,同时渲染速度提升了约20%。这表明GGN能够更有效地利用多视角信息,生成更紧凑和高效的场景表示。

🎯 应用场景

该研究成果可广泛应用于新视角合成、三维重建、虚拟现实、增强现实等领域。通过学习高效且泛化的高斯表示,可以实现高质量的自由视角视频生成,提升用户在虚拟环境中的沉浸感和交互体验。此外,该方法还可以应用于自动驾驶、机器人导航等领域,为场景理解和环境感知提供更准确和鲁棒的信息。

📄 摘要(原文)

3D Gaussian Splatting (3DGS) has demonstrated impressive novel view synthesis performance. While conventional methods require per-scene optimization, more recently several feed-forward methods have been proposed to generate pixel-aligned Gaussian representations with a learnable network, which are generalizable to different scenes. However, these methods simply combine pixel-aligned Gaussians from multiple views as scene representations, thereby leading to artifacts and extra memory cost without fully capturing the relations of Gaussians from different images. In this paper, we propose Gaussian Graph Network (GGN) to generate efficient and generalizable Gaussian representations. Specifically, we construct Gaussian Graphs to model the relations of Gaussian groups from different views. To support message passing at Gaussian level, we reformulate the basic graph operations over Gaussian representations, enabling each Gaussian to benefit from its connected Gaussian groups with Gaussian feature fusion. Furthermore, we design a Gaussian pooling layer to aggregate various Gaussian groups for efficient representations. We conduct experiments on the large-scale RealEstate10K and ACID datasets to demonstrate the efficiency and generalization of our method. Compared to the state-of-the-art methods, our model uses fewer Gaussians and achieves better image quality with higher rendering speed.