Communication and Verification in LLM Agents towards Collaboration under Information Asymmetry

📄 arXiv: 2510.25595v1 📥 PDF

作者: Run Peng, Ziqiao Ma, Amy Pang, Sikai Li, Zhang Xi-Jia, Yingzhuo Yu, Cristian-Paul Bara, Joyce Chai

分类: cs.CL, cs.AI

发布日期: 2025-10-29

备注: Workshop on Multi-Agent System @ ICML 2025

🔗 代码/项目: GITHUB


💡 一句话要点

针对信息不对称下的LLM智能体协作,提出通信与验证框架以提升任务完成度和可解释性。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LLM智能体 多智能体协作 信息不对称 通信策略 环境验证 爱因斯坦谜题 任务完成度 可解释性

📋 核心要点

  1. 现有LLM智能体研究主要集中在动作规划和生成,缺乏对智能体间协作完成共同目标的研究。
  2. 论文提出微调加验证器框架,赋予LLM智能体通信策略和环境验证信号,提升协作能力。
  3. 实验表明,对齐的通信至关重要,环境验证器能增强智能体对规则的理解,提高任务完成度和可解释性。

📝 摘要(中文)

本文研究了大型语言模型(LLM)智能体在任务协作中的应用,特别是在信息不对称的情况下,即智能体在知识和技能上存在差异,需要协同完成共享任务。作者将经典的爱因斯坦谜题扩展到桌面游戏中,其中两个LLM智能体必须进行推理、沟通和行动,以满足解决谜题所需的空间和关系约束。论文采用了一种微调加验证器的框架,其中LLM智能体配备了各种通信策略和来自环境的验证信号。实验结果强调了对齐通信的关键重要性,尤其是在智能体同时具备信息寻求和提供能力时。有趣的是,没有通信的智能体仍然可以实现较高的任务性能;然而,进一步的分析表明,它们缺乏对规则的真正理解,并且人类评估者的信任度较低。相反,通过集成基于环境的验证器,可以增强智能体理解任务规则和完成任务的能力,从而促进人工智能系统中更安全和更可解释的协作。

🔬 方法详解

问题定义:论文旨在解决信息不对称情况下,LLM智能体如何有效协作完成任务的问题。现有方法主要关注单个智能体的行为规划,忽略了智能体间的沟通和知识差异,导致协作效率低下,且难以保证任务完成的可靠性和可解释性。

核心思路:论文的核心思路是赋予LLM智能体有效的沟通能力,并引入环境验证机制,从而弥补信息不对称带来的挑战。通过沟通,智能体可以共享知识、协调行动;通过环境验证,智能体可以及时纠正错误,提高任务完成的准确性。

技术框架:论文采用微调加验证器的框架。首先,对LLM进行微调,使其具备基本的推理和行动能力。然后,为智能体配备不同的通信策略,例如信息寻求和信息提供。最后,引入环境验证器,用于评估智能体的行动是否符合规则,并提供反馈信号。整体流程包括智能体观察环境、进行推理、选择行动、与其他智能体沟通、执行行动、接收环境反馈,并重复以上步骤直至任务完成。

关键创新:论文的关键创新在于将通信和环境验证机制引入LLM智能体协作框架中。传统的LLM智能体主要依赖于自身的知识和推理能力,缺乏有效的协作手段。通过引入通信,智能体可以共享信息,协同解决问题。通过引入环境验证,智能体可以及时纠正错误,提高任务完成的可靠性。

关键设计:论文的关键设计包括:1) 设计了不同的通信策略,例如信息寻求和信息提供,以模拟真实的协作场景;2) 引入了环境验证器,用于评估智能体的行动是否符合规则,并提供奖励或惩罚信号;3) 使用爱因斯坦谜题作为测试环境,该谜题具有较高的复杂性和挑战性,能够有效评估智能体的协作能力。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,配备通信策略和环境验证器的LLM智能体在爱因斯坦谜题任务中表现显著提升。尤其是在信息不对称的情况下,对齐的通信能够显著提高任务完成度。此外,环境验证器能够增强智能体对任务规则的理解,提高任务完成的可解释性,并获得人类评估者更高的信任度。即使没有通信,智能体也能达到较高性能,但缺乏对规则的真正理解。

🎯 应用场景

该研究成果可应用于多智能体协作机器人、智能客服、自动驾驶等领域。例如,在多智能体协作机器人中,不同的机器人可以利用该方法进行沟通和协作,共同完成复杂的任务。在智能客服中,不同的客服机器人可以共享知识,协同解决用户的问题。在自动驾驶中,不同的车辆可以进行通信和协作,提高交通效率和安全性。

📄 摘要(原文)

While Large Language Model (LLM) agents are often approached from the angle of action planning/generation to accomplish a goal (e.g., given by language descriptions), their abilities to collaborate with each other to achieve a joint goal are not well explored. To address this limitation, this paper studies LLM agents in task collaboration, particularly under the condition of information asymmetry, where agents have disparities in their knowledge and skills and need to work together to complete a shared task. We extend Einstein Puzzles, a classical symbolic puzzle, to a table-top game. In this game, two LLM agents must reason, communicate, and act to satisfy spatial and relational constraints required to solve the puzzle. We apply a fine-tuning-plus-verifier framework in which LLM agents are equipped with various communication strategies and verification signals from the environment. Empirical results highlight the critical importance of aligned communication, especially when agents possess both information-seeking and -providing capabilities. Interestingly, agents without communication can still achieve high task performance; however, further analysis reveals a lack of true rule understanding and lower trust from human evaluators. Instead, by integrating an environment-based verifier, we enhance agents' ability to comprehend task rules and complete tasks, promoting both safer and more interpretable collaboration in AI systems. https://github.com/Roihn/EinsteinPuzzles