Finding Common Ground: Using Large Language Models to Detect Agreement in Multi-Agent Decision Conferences
作者: Selina Heller, Mohamed Ibrahim, David Antony Selby, Sebastian Vollmer
分类: cs.CL, cs.AI, cs.MA
发布日期: 2025-07-11
💡 一句话要点
利用大型语言模型检测多智能体决策会议中的共识
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 多智能体系统 决策会议 共识检测 立场检测 情感分析 智能体模拟
📋 核心要点
- 现实决策会议耗时且成本高昂,缺乏有效的模拟工具来辅助决策过程。
- 构建基于LLM的多智能体系统,模拟决策会议,自动检测智能体间的共识。
- 实验表明LLM能有效检测动态辩论中的共识,提升辩论效率和决策质量。
📝 摘要(中文)
本文提出了一种基于大型语言模型(LLM)的多智能体系统,用于模拟决策会议,并重点关注参与者智能体之间的共识检测。该系统旨在模拟专家们在决策会议中协作讨论并达成共识的过程。研究评估了六种不同的LLM在两个任务上的表现:立场检测(识别智能体在特定问题上的立场)和立场极性检测(识别情感为正面、负面或中性)。通过在多智能体系统中进行评估,验证了这些模型在复杂模拟中的有效性。结果表明,LLM能够可靠地检测动态和细致的辩论中的共识。在系统中加入共识检测智能体可以提高群体辩论的效率,并提升审议的整体质量和连贯性,使其在结果和决策方面与现实世界的决策会议相媲美。这些发现展示了基于LLM的多智能体系统在模拟群体决策过程中的潜力,并强调了此类系统在支持跨领域专家意见征询研讨会中的作用。
🔬 方法详解
问题定义:论文旨在解决在多智能体决策会议模拟中,如何准确、高效地检测智能体之间达成的共识的问题。现有方法缺乏对智能体立场和情感的细粒度分析,难以准确捕捉动态辩论中的共识。
核心思路:论文的核心思路是利用大型语言模型(LLM)强大的自然语言理解和生成能力,模拟智能体在决策会议中的发言和互动,并通过分析智能体的立场和情感极性来检测共识。通过构建多智能体系统,模拟真实世界决策会议的复杂性和动态性。
技术框架:该多智能体系统包含以下主要模块:1) 智能体初始化:为每个智能体分配角色、背景和立场。2) 辩论模拟:LLM驱动的智能体根据预设规则进行发言和互动。3) 立场检测:利用LLM识别每个智能体在特定问题上的立场。4) 立场极性检测:利用LLM判断智能体的情感极性(正面、负面、中性)。5) 共识检测:基于智能体的立场和情感极性,判断智能体之间是否达成共识。
关键创新:该研究的关键创新在于将LLM应用于多智能体决策会议模拟,并提出了一种基于立场和情感极性的共识检测方法。与传统方法相比,该方法能够更准确地捕捉动态辩论中的共识,并提高决策会议模拟的真实性和有效性。
关键设计:论文评估了六种不同的LLM,包括具体的模型名称未知。在立场检测和立场极性检测任务中,使用了标准的数据集和评估指标,具体细节未知。共识检测算法的设计细节也未在摘要中详细说明。
🖼️ 关键图片
📊 实验亮点
研究结果表明,LLM能够可靠地检测动态和细致的辩论中的共识。在系统中加入共识检测智能体可以提高群体辩论的效率,并提升审议的整体质量和连贯性,使其在结果和决策方面与现实世界的决策会议相媲美。具体的性能数据和提升幅度在摘要中未给出。
🎯 应用场景
该研究成果可应用于多种领域,例如政策制定、商业决策、危机管理等。通过模拟决策会议,可以帮助决策者更好地理解不同观点的优缺点,预测潜在的风险和收益,并最终做出更明智的决策。此外,该系统还可以用于培训决策者,提高其在复杂环境下的决策能力。
📄 摘要(原文)
Decision conferences are structured, collaborative meetings that bring together experts from various fields to address complex issues and reach a consensus on recommendations for future actions or policies. These conferences often rely on facilitated discussions to ensure productive dialogue and collective agreement. Recently, Large Language Models (LLMs) have shown significant promise in simulating real-world scenarios, particularly through collaborative multi-agent systems that mimic group interactions. In this work, we present a novel LLM-based multi-agent system designed to simulate decision conferences, specifically focusing on detecting agreement among the participant agents. To achieve this, we evaluate six distinct LLMs on two tasks: stance detection, which identifies the position an agent takes on a given issue, and stance polarity detection, which identifies the sentiment as positive, negative, or neutral. These models are further assessed within the multi-agent system to determine their effectiveness in complex simulations. Our results indicate that LLMs can reliably detect agreement even in dynamic and nuanced debates. Incorporating an agreement-detection agent within the system can also improve the efficiency of group debates and enhance the overall quality and coherence of deliberations, making them comparable to real-world decision conferences regarding outcome and decision-making. These findings demonstrate the potential for LLM-based multi-agent systems to simulate group decision-making processes. They also highlight that such systems could be instrumental in supporting decision-making with expert elicitation workshops across various domains.