Nimbus: A Unified Embodied Synthetic Data Generation Framework

📄 arXiv: 2601.21449v1 📥 PDF

作者: Zeyu He, Yuchang Zhang, Yuanzhen Zhou, Miao Tao, Hengjie Li, Yang Tian, Jia Zeng, Tai Wang, Wenzhe Cai, Yilun Chen, Ning Gao, Jiangmiao Pang

分类: cs.RO, cs.DC

发布日期: 2026-01-29


💡 一句话要点

Nimbus:统一具身智能合成数据生成框架,提升数据吞吐量。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 合成数据生成 具身智能 机器人 分布式系统 数据吞吐量

📋 核心要点

  1. 现有合成数据生成流程分散且任务特定,导致工程效率低下,无法满足基础模型训练对大规模数据的需求。
  2. Nimbus 采用模块化四层架构和解耦执行模型,将轨迹规划、渲染和存储异步化,实现异构流程的统一。
  3. 通过动态调度、负载均衡、分布式容错和渲染优化,Nimbus 显著提升了数据生成吞吐量,并保证了长期稳定运行。

📝 摘要(中文)

为了推广具身智能,扩大数据规模和多样性至关重要。合成数据生成为昂贵的物理数据采集提供了一种可扩展的替代方案,但现有的流程仍然是分散且特定于任务的。这种隔离导致了显著的工程效率低下和系统不稳定,无法支持基础模型训练所需的可持续、高吞吐量的数据生成。为了应对这些挑战,我们提出了 Nimbus,一个统一的合成数据生成框架,旨在集成异构的导航和操作流程。Nimbus 引入了一个模块化的四层架构,该架构具有解耦的执行模型,将轨迹规划、渲染和存储分离为异步阶段。通过实施动态管道调度、全局负载平衡、分布式容错和后端特定的渲染优化,该系统最大限度地利用了 CPU、GPU 和 I/O 资源。我们的评估表明,与未优化的基线相比,Nimbus 在端到端吞吐量方面实现了 2-3 倍的提升,并确保了在大型分布式环境中稳健、长期的运行。该框架是 InternData 套件的生产支柱,实现了无缝的跨域数据合成。

🔬 方法详解

问题定义:现有具身智能合成数据生成流程存在碎片化和任务特异性问题,导致工程效率低下,系统不稳定,无法满足大规模基础模型训练的需求。现有方法难以实现异构导航和操作流程的统一集成,资源利用率低,吞吐量受限。

核心思路:Nimbus 的核心思路是构建一个统一的、模块化的合成数据生成框架,通过解耦执行模型和异步处理,实现异构流程的集成和资源的高效利用。通过动态调度和负载均衡,优化数据生成管道,提高吞吐量和稳定性。

技术框架:Nimbus 采用四层模块化架构,包括:1) 场景管理层,负责场景的创建和管理;2) 任务规划层,负责生成任务轨迹;3) 渲染层,负责将场景和轨迹渲染成图像;4) 数据存储层,负责存储生成的数据。该框架采用解耦的执行模型,将任务规划、渲染和存储分离为异步阶段,并通过动态管道调度和全局负载均衡来优化资源利用率。

关键创新:Nimbus 的关键创新在于其统一的架构和解耦的执行模型,实现了异构流程的集成和异步处理。动态管道调度和全局负载均衡机制能够根据资源状况动态调整任务分配,最大限度地提高资源利用率和吞吐量。此外,Nimbus 还实现了分布式容错机制,保证了系统在大型分布式环境中的稳定运行。

关键设计:Nimbus 的关键设计包括:1) 动态管道调度算法,根据 CPU、GPU 和 I/O 资源的使用情况动态调整任务分配;2) 全局负载均衡策略,将任务均匀分配到各个计算节点;3) 分布式容错机制,当节点发生故障时,自动将任务迁移到其他节点;4) 后端特定的渲染优化,针对不同的渲染引擎进行优化,提高渲染效率。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,Nimbus 框架在端到端吞吐量方面比未优化的基线提高了 2-3 倍。该框架能够在大规模分布式环境中稳定运行,并支持 InternData 套件的跨域数据合成。这些结果验证了 Nimbus 框架的有效性和实用性,表明其能够显著提升合成数据生成的效率和质量。

🎯 应用场景

Nimbus 框架可应用于各种具身智能任务的合成数据生成,例如机器人导航、物体操作、视觉感知等。它能够为基础模型的训练提供大规模、多样化的数据,加速具身智能算法的研发和部署。此外,该框架还可以用于虚拟环境的构建和仿真,为机器人和人工智能的研究提供实验平台。

📄 摘要(原文)

Scaling data volume and diversity is critical for generalizing embodied intelligence. While synthetic data generation offers a scalable alternative to expensive physical data acquisition, existing pipelines remain fragmented and task-specific. This isolation leads to significant engineering inefficiency and system instability, failing to support the sustained, high-throughput data generation required for foundation model training. To address these challenges, we present Nimbus, a unified synthetic data generation framework designed to integrate heterogeneous navigation and manipulation pipelines. Nimbus introduces a modular four-layer architecture featuring a decoupled execution model that separates trajectory planning, rendering, and storage into asynchronous stages. By implementing dynamic pipeline scheduling, global load balancing, distributed fault tolerance, and backend-specific rendering optimizations, the system maximizes resource utilization across CPU, GPU, and I/O resources. Our evaluation demonstrates that Nimbus achieves a 2-3X improvement in end-to-end throughput compared to unoptimized baselines and ensuring robust, long-term operation in large-scale distributed environments. This framework serves as the production backbone for the InternData suite, enabling seamless cross-domain data synthesis.