WorldGrow: Generating Infinite 3D World

📄 arXiv: 2510.21682v1 📥 PDF

作者: Sikuang Li, Chen Yang, Jiemin Fang, Taoran Yi, Jia Lu, Jiazhong Cen, Lingxi Xie, Wei Shen, Qi Tian

分类: cs.CV, cs.GR

发布日期: 2025-10-24

备注: Project page: https://world-grow.github.io/ Code: https://github.com/world-grow/WorldGrow


💡 一句话要点

提出WorldGrow以解决无限扩展3D世界生成问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱三:空间感知与语义 (Perception & Semantics) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 3D世界生成 场景合成 虚拟现实 几何重建 深度学习

📋 核心要点

  1. 现有方法在生成无限扩展的3D世界时面临几何和外观一致性不足、可扩展性差等挑战。
  2. WorldGrow通过利用预训练3D模型的生成先验,提出了一种分层的场景合成框架,解决了上述问题。
  3. 在大规模3D-FRONT数据集上的评估显示,WorldGrow在几何重建上达到了SOTA性能,并支持无限场景生成。

📝 摘要(中文)

本文针对生成无限扩展的3D世界这一挑战,提出了WorldGrow框架。现有方法在几何和外观一致性、可扩展性以及场景生成能力上存在不足。WorldGrow通过利用预训练3D模型的生成先验,构建了一个分层框架,包含高质量场景块提取、上下文感知的3D块修复机制和粗到细的生成策略。实验结果表明,WorldGrow在几何重建上达到了最先进的性能,并支持生成具有照片级真实感和结构一致性的无限场景。

🔬 方法详解

问题定义:本文旨在解决生成无限扩展的3D世界的问题。现有方法在几何和外观一致性、可扩展性以及场景生成能力上存在明显不足,限制了其应用。

核心思路:WorldGrow的核心思路是利用预训练3D模型的强生成先验,进行结构化场景块的生成。这种设计使得生成的场景在几何和外观上更加一致。

技术框架:WorldGrow的整体架构包括三个主要模块:数据整理管道、3D块修复机制和粗到细的生成策略。数据整理管道提取高质量的场景块用于训练,3D块修复机制支持上下文感知的场景扩展,粗到细的生成策略确保全局布局的合理性和局部几何/纹理的真实感。

关键创新:WorldGrow的主要创新在于其分层框架和上下文感知的块修复机制,这与现有方法的对象中心生成方式有本质区别,能够实现更为连贯的场景生成。

关键设计:在关键设计上,WorldGrow采用了高质量场景块的提取技术,结合特定的损失函数和网络结构,以确保生成结果的几何和纹理一致性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在大规模3D-FRONT数据集上的实验结果显示,WorldGrow在几何重建任务中达到了最先进的性能,具体表现为在多个评估指标上超越了现有基线,提升幅度显著,支持生成无限扩展的场景。

🎯 应用场景

该研究的潜在应用领域包括虚拟现实、游戏开发和城市规划等。通过生成大规模的虚拟环境,WorldGrow能够为用户提供沉浸式体验,并在未来的世界模型构建中发挥重要作用。

📄 摘要(原文)

We tackle the challenge of generating the infinitely extendable 3D world -- large, continuous environments with coherent geometry and realistic appearance. Existing methods face key challenges: 2D-lifting approaches suffer from geometric and appearance inconsistencies across views, 3D implicit representations are hard to scale up, and current 3D foundation models are mostly object-centric, limiting their applicability to scene-level generation. Our key insight is leveraging strong generation priors from pre-trained 3D models for structured scene block generation. To this end, we propose WorldGrow, a hierarchical framework for unbounded 3D scene synthesis. Our method features three core components: (1) a data curation pipeline that extracts high-quality scene blocks for training, making the 3D structured latent representations suitable for scene generation; (2) a 3D block inpainting mechanism that enables context-aware scene extension; and (3) a coarse-to-fine generation strategy that ensures both global layout plausibility and local geometric/textural fidelity. Evaluated on the large-scale 3D-FRONT dataset, WorldGrow achieves SOTA performance in geometry reconstruction, while uniquely supporting infinite scene generation with photorealistic and structurally consistent outputs. These results highlight its capability for constructing large-scale virtual environments and potential for building future world models.