CORAL: Scalable Multi-Task Robot Learning via LoRA Experts

📄 arXiv: 2603.09298v1 📥 PDF

作者: Yuankai Luo, Woping Chen, Tong Liang, Zhenguo Li

分类: cs.RO

发布日期: 2026-03-10

🔗 代码/项目: PROJECT_PAGE


💡 一句话要点

CORAL:基于LoRA专家网络的可扩展多任务机器人学习框架

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多任务学习 机器人学习 低秩适应 参数隔离 视觉语言动作模型 终身学习 专家网络

📋 核心要点

  1. 多任务机器人学习中,联合训练易导致任务间梯度冲突,产生负迁移,降低性能。
  2. CORAL框架冻结预训练VLA主干,为每个任务分配LoRA专家,隔离参数避免干扰。
  3. 实验表明,CORAL在真实机器人和模拟环境中均优于联合训练,实现可扩展的终身学习。

📝 摘要(中文)

在真实机器人环境中部署视觉-语言-动作(VLA)模型面临着多任务学习的核心挑战:调和多任务机器人学习中的任务干扰。当多个任务在单阶段联合微调时,来自不同任务的梯度可能冲突,导致负迁移并降低每个任务的性能。然而,为每个任务维护一个单独的完整检查点通常在存储和部署上是禁止的。为了解决这个难题,我们提出了CORAL,一个主干和机器人无关的框架,主要旨在减轻多任务干扰,同时保持自然地可扩展到连续的新任务流。CORAL冻结了一个预训练的VLA主干,并为每个任务附加一个轻量级的低秩适应(LoRA)专家;在运行时,一个动态推理引擎(CORAL管理器)将语言指令路由到适当的专家,并以零推理开销动态切换专家。这种严格的参数隔离避免了复杂的门控网络,并通过构造防止了参数级别的跨任务干扰;作为一个附加功能,它还能够顺序引入新任务,而不会发生由灾难性遗忘引起的参数覆盖。我们在真实的Galaxea R1双臂移动机械臂和三个模拟基准(LIBERO、WidowX、Google Robot)上验证了CORAL,其中CORAL克服了细粒度的指令模糊性,并大大优于联合训练,从而产生了一个用于终身多任务机器人学习的实用且可扩展的系统。

🔬 方法详解

问题定义:论文旨在解决多任务机器人学习中,不同任务之间相互干扰的问题。现有方法如联合训练,容易导致梯度冲突和负迁移,降低每个任务的性能。而为每个任务单独维护一个模型,则会带来巨大的存储和部署成本。

核心思路:论文的核心思路是利用参数隔离来避免任务间的干扰。具体而言,冻结一个预训练的视觉-语言-动作(VLA)主干网络,并为每个任务添加一个轻量级的低秩适应(LoRA)专家。这样,每个任务只更新自己的LoRA专家,避免了参数层面的跨任务干扰。

技术框架:CORAL框架主要包含以下几个模块:1) 预训练的VLA主干网络:负责提取视觉和语言特征。2) LoRA专家网络:每个任务对应一个LoRA专家,负责将提取的特征映射到动作空间。3) CORAL管理器:一个动态推理引擎,根据语言指令将输入路由到相应的LoRA专家。在推理时,CORAL管理器会根据输入的语言指令,动态地选择对应的LoRA专家进行推理,并以零推理开销切换专家。

关键创新:CORAL的关键创新在于利用LoRA专家网络实现了参数隔离,从而避免了任务间的干扰。与传统的联合训练方法相比,CORAL不需要复杂的门控网络,并且能够顺序引入新任务,避免灾难性遗忘。此外,CORAL框架具有良好的可扩展性,可以方便地添加新的任务和专家。

关键设计:CORAL的关键设计包括:1) 使用预训练的VLA模型作为主干网络,可以利用大规模数据集进行预训练,提高模型的泛化能力。2) 使用LoRA进行参数微调,LoRA通过引入低秩矩阵来近似参数更新,从而减少了需要训练的参数量,降低了计算成本。3) CORAL管理器根据语言指令进行动态路由,保证了每个任务都能使用最合适的专家网络。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

CORAL在真实世界的Galaxea R1双臂移动机械臂和三个模拟基准(LIBERO、WidowX、Google Robot)上进行了验证。实验结果表明,CORAL显著优于联合训练方法,能够克服细粒度的指令模糊性,并实现了更好的多任务学习性能。具体提升幅度在不同任务和数据集上有所不同,但总体上CORAL都取得了显著的性能提升。

🎯 应用场景

CORAL框架适用于各种需要多任务机器人学习的场景,例如家庭服务机器人、工业机器人等。它可以帮助机器人同时学习多个任务,提高机器人的通用性和适应性。此外,CORAL框架的可扩展性使得机器人能够不断学习新的任务,从而实现终身学习。

📄 摘要(原文)

Deploying Vision-Language-Action (VLA) models in real-world robotics exposes a core multi-task learning challenge: reconciling task interference in multi-task robotic learning. When multiple tasks are jointly fine-tuned in a single stage, gradients from different tasks can conflict, causing negative transfer and reducing per-task performance. Yet maintaining a separate full checkpoint per task is often storage- and deployment-prohibitive. To address this dilemma, we present CORAL, a backbone- and embodiment-agnostic framework designed primarily to mitigate multi-task interference while remaining naturally extensible to a continuous stream of new tasks. CORAL freezes a single pre-trained VLA backbone and attaches one lightweight Low-Rank Adaptation (LoRA) expert per task; at runtime, a dynamic inference engine (the CORAL Manager) routes language instructions to the appropriate expert and swaps experts on the fly with zero inference overhead. This strict parameter isolation avoids complex gating networks and prevents parameter-level cross-task interference by construction; as an added capability, it also enables sequentially introducing new tasks without parameter overwriting caused by catastrophic forgetting. We validate CORAL on a real-world Galaxea R1 dual-arm mobile manipulator and three simulation benchmarks (LIBERO, WidowX, Google Robot), where CORAL overcomes fine-grained instructional ambiguity and substantially outperforms joint training, yielding a practical and scalable system for lifelong multi-task robot learning. Website: https://frontierrobo.github.io/CORAL