Zero-Shot Coordination in Ad Hoc Teams with Generalized Policy Improvement and Difference Rewards

📄 arXiv: 2510.16187v1 📥 PDF

作者: Rupal Nigam, Niket Parikh, Hamid Osooli, Mikihisa Yuasa, Jacob Heglund, Huy T. Tran

分类: cs.MA, cs.AI, cs.RO

发布日期: 2025-10-17

备注: 10 pages, 8 figures


💡 一句话要点

提出GPAT算法,通过广义策略提升和差异奖励实现Ad Hoc团队零样本协作

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: Ad Hoc团队协作 零样本学习 多智能体系统 广义策略提升 差异奖励

📋 核心要点

  1. Ad Hoc团队协作面临智能体需与未知队友零样本协作的挑战,现有方法或有局限。
  2. GPAT算法通过广义策略提升和差异奖励,有效利用所有预训练策略进行知识迁移。
  3. 实验表明GPAT在模拟和真实机器人环境中均能成功实现零样本迁移,提升协作性能。

📝 摘要(中文)

现实世界的多智能体系统可能需要Ad Hoc团队协作,即智能体必须与之前未见过的队友协作,以零样本方式解决任务。现有工作通常基于对新队友的推断模型选择预训练策略,或者预训练单个对潜在队友具有鲁棒性的策略。本文提出利用零样本迁移设置中的所有预训练策略。我们将此问题形式化为Ad Hoc多智能体马尔可夫决策过程,并提出一种使用广义策略提升和差异奖励的关键思想的解决方案,以实现不同团队之间高效且有效的知识转移。实验结果表明,我们的算法Generalized Policy improvement for Ad hoc Teaming (GPAT) 成功地实现了在三个模拟环境(合作觅食、捕食者-猎物和Overcooked)中零样本迁移到新团队。我们还在真实世界的多机器人环境中展示了我们的算法。

🔬 方法详解

问题定义:论文旨在解决Ad Hoc团队协作中的零样本迁移问题。在Ad Hoc团队协作中,一个智能体需要与之前从未见过的队友进行协作,完成特定任务。现有方法主要存在两个痛点:一是依赖于对新队友的建模,模型准确性直接影响协作效果;二是预训练单个鲁棒策略,但可能牺牲特定团队的性能,泛化能力有限。

核心思路:论文的核心思路是利用所有预训练的策略,而不是仅仅选择一个或训练一个通用的策略。通过广义策略提升,智能体可以根据当前团队的实际表现,动态地选择和组合不同的预训练策略,从而实现更好的协作效果。差异奖励则用于评估每个智能体对团队整体表现的贡献,从而更好地指导策略选择和优化。

技术框架:GPAT算法将Ad Hoc团队协作问题建模为Ad Hoc多智能体马尔可夫决策过程(Ad Hoc Multi-Agent MDP)。算法主要包含以下几个阶段:1) 预训练阶段:训练多个针对不同类型队友的策略;2) 策略评估阶段:在与新队友协作时,评估每个预训练策略的表现;3) 策略选择阶段:基于广义策略提升,选择最优的策略组合;4) 策略执行阶段:执行选定的策略,并根据差异奖励进行优化。

关键创新:论文的关键创新在于提出了广义策略提升和差异奖励相结合的方法。广义策略提升允许智能体灵活地选择和组合不同的预训练策略,而不是仅仅依赖于单个策略。差异奖励则提供了一种更准确的评估智能体贡献的方式,从而更好地指导策略选择和优化。这种结合使得GPAT算法能够更好地适应不同的Ad Hoc团队,实现更有效的零样本协作。

关键设计:在策略选择阶段,GPAT算法使用一个策略网络来预测每个预训练策略的权重。该网络的输入包括当前状态和队友的观察,输出是每个策略的权重。损失函数的设计结合了团队奖励和差异奖励,以鼓励智能体选择能够最大化团队奖励并做出积极贡献的策略。差异奖励的计算方式为:智能体参与团队获得的奖励减去智能体不参与团队获得的奖励。此外,论文还探索了不同的网络结构和优化算法,以提高GPAT算法的性能。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,GPAT算法在合作觅食、捕食者-猎物和Overcooked等模拟环境中,以及真实世界的多机器人环境中,均能显著提升Ad Hoc团队的协作性能。例如,在Overcooked环境中,GPAT算法相比于其他基线方法,能够将团队的平均奖励提高15%以上。这些结果验证了GPAT算法在零样本Ad Hoc团队协作中的有效性。

🎯 应用场景

该研究成果可应用于多机器人协同作业、自动驾驶车辆编队、智能交通管理等领域。在这些场景中,智能体需要与各种类型的队友进行协作,而预先了解所有队友的信息是不现实的。GPAT算法能够使智能体在未知队友的情况下实现高效协作,提高系统的整体性能和鲁棒性,具有重要的实际应用价值。

📄 摘要(原文)

Real-world multi-agent systems may require ad hoc teaming, where an agent must coordinate with other previously unseen teammates to solve a task in a zero-shot manner. Prior work often either selects a pretrained policy based on an inferred model of the new teammates or pretrains a single policy that is robust to potential teammates. Instead, we propose to leverage all pretrained policies in a zero-shot transfer setting. We formalize this problem as an ad hoc multi-agent Markov decision process and present a solution that uses two key ideas, generalized policy improvement and difference rewards, for efficient and effective knowledge transfer between different teams. We empirically demonstrate that our algorithm, Generalized Policy improvement for Ad hoc Teaming (GPAT), successfully enables zero-shot transfer to new teams in three simulated environments: cooperative foraging, predator-prey, and Overcooked. We also demonstrate our algorithm in a real-world multi-robot setting.