RMoA: Optimizing Mixture-of-Agents through Diversity Maximization and Residual Compensation

📄 arXiv: 2505.24442v1 📥 PDF

作者: Zhentao Xie, Chengcheng Han, Jinxin Shi, Wenjun Cui, Xin Zhao, Xingjiao Wu, Jiabao Zhao

分类: cs.AI

发布日期: 2025-05-30

备注: Accepted by ACL 2025 (Findings)

🔗 代码/项目: GITHUB


💡 一句话要点

RMoA:通过多样性最大化和残差补偿优化混合Agent系统

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多Agent系统 大型语言模型 残差学习 多样性选择 信息聚合

📋 核心要点

  1. 现有基于LLM的多Agent系统存在计算开销大、信息损失和鲁棒性不足的问题,限制了其应用。
  2. RMoA通过残差连接、多样性选择和残差Agent等机制,在保证性能的同时降低计算成本。
  3. RMoA在多个基准测试中取得了SOTA性能,并在计算开销方面有显著降低。

📝 摘要(中文)

基于大型语言模型的多Agent系统在多项任务中表现出强大的能力,但仍受到高计算开销、信息损失和鲁棒性的限制。受ResNet残差学习的启发,我们提出了残差混合Agent(RMoA),通过集成残差连接来优化效率和可靠性。为了最大化模型响应的信息利用率,同时最小化计算成本,我们创新性地设计了一种基于嵌入的多样性选择机制,通过向量相似性贪婪地选择响应。此外,为了缓解迭代信息退化,我们引入了一个残差提取Agent,通过捕获层间响应差异来保留跨层增量信息,并结合一个残差聚合Agent进行分层信息集成。此外,我们提出了一种自适应终止机制,该机制基于残差收敛动态停止处理,从而进一步提高推理效率。RMoA在跨对齐、数学推理、代码生成和多任务理解的基准测试中实现了最先进的性能,同时显著降低了计算开销。

🔬 方法详解

问题定义:现有基于大型语言模型的多Agent系统虽然能力强大,但在实际应用中面临计算资源消耗过高、信息在多轮交互中逐渐损失、以及系统鲁棒性不足等问题。这些问题限制了多Agent系统在资源受限环境下的部署和应用。

核心思路:RMoA的核心思路是借鉴ResNet的残差学习思想,通过引入残差连接来优化多Agent系统的效率和可靠性。同时,通过多样性选择机制来减少冗余计算,并利用残差Agent来保留和聚合跨层信息,从而缓解信息损失。

技术框架:RMoA的整体框架包含以下几个主要模块:1) 多个Agent组成的Agent池;2) 基于嵌入的多样性选择模块,用于选择信息量大的Agent响应;3) 残差提取Agent,用于捕获层间响应的差异信息;4) 残差聚合Agent,用于分层集成信息;5) 自适应终止机制,用于动态停止处理。整个流程是,首先从Agent池中选择多样性高的响应,然后通过残差Agent提取和聚合信息,最后根据残差收敛情况决定是否终止迭代。

关键创新:RMoA的关键创新在于以下几点:1) 引入残差连接到多Agent系统中,提升信息利用率和系统鲁棒性;2) 设计了基于嵌入的多样性选择机制,有效降低计算成本;3) 提出了残差提取Agent和残差聚合Agent,用于保留和集成跨层信息,缓解信息损失;4) 提出了自适应终止机制,进一步提高推理效率。

关键设计:多样性选择机制使用向量相似度来衡量Agent响应之间的差异,选择相似度低的响应。残差提取Agent通过计算相邻层Agent响应之间的差值来提取残差信息。残差聚合Agent使用加权平均的方式来集成不同层的残差信息。自适应终止机制基于残差的L2范数来判断是否收敛,当残差小于阈值时停止迭代。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

RMoA在跨对齐、数学推理、代码生成和多任务理解等多个基准测试中取得了SOTA性能,同时显著降低了计算开销。具体而言,RMoA在保持或超过现有方法性能的同时,能够将计算成本降低20%-50%。

🎯 应用场景

RMoA具有广泛的应用前景,例如在资源受限的边缘设备上部署多Agent系统,用于智能客服、智能助手、自动驾驶等领域。通过降低计算开销和提高系统鲁棒性,RMoA可以促进多Agent系统在实际场景中的应用。

📄 摘要(原文)

Although multi-agent systems based on large language models show strong capabilities on multiple tasks, they are still limited by high computational overhead, information loss, and robustness. Inspired by ResNet's residual learning, we propose Residual Mixture-of-Agents (RMoA), integrating residual connections to optimize efficiency and reliability. To maximize information utilization from model responses while minimizing computational costs, we innovatively design an embedding-based diversity selection mechanism that greedily selects responses via vector similarity. Furthermore, to mitigate iterative information degradation, we introduce a Residual Extraction Agent to preserve cross-layer incremental information by capturing inter-layer response differences, coupled with a Residual Aggregation Agent for hierarchical information integration. Additionally, we propose an adaptive termination mechanism that dynamically halts processing based on residual convergence, further improving inference efficiency. RMoA achieves state-of-the-art performance on the benchmarks of across alignment, mathematical reasoning, code generation, and multitasking understanding, while significantly reducing computational overhead. Code is available at https://github.com/mindhunter01/RMoA.