LLMs with Personalities in Multi-issue Negotiation Games
作者: Sean Noh, Ho-Chun Herbert Chang
分类: cs.CL, cs.AI, cs.MA
发布日期: 2024-05-08 (更新: 2024-05-09)
💡 一句话要点
利用人格化LLM进行多议题谈判博弈,提升谈判策略设计
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 谈判博弈 人格特征 多议题谈判 AI Agent
📋 核心要点
- 现有AI谈判agent难以模拟人类复杂的人格特征,导致谈判策略不够灵活和有效。
- 本文利用LLM模拟具有不同人格特征的谈判agent,并研究这些agent在谈判博弈中的行为表现。
- 实验表明,特定人格特征与谈判行为(如公平性、理性、毒性)之间存在关联,为谈判机器人设计提供指导。
📝 摘要(中文)
本文研究了大型语言模型(LLM)在谈判博弈中的能力,并考察了人格特征对谈判行为的影响。基于“大五人格”模型,评估了LLM在单议题和多议题谈判中的表现,并探讨了公平性和风险评估的方法论挑战。通过1500次模拟实验,发现议题复杂性和非对称估值能提高协议达成率,但会因激进谈判而降低收益。梯度提升回归和Shapley值分析表明,高开放性、责任心和神经质与公平倾向相关,而低宜人性和低开放性与理性倾向相关。低责任心与高毒性相关。结果表明,LLM可能内置了公平行为的保护机制,但可以通过“越狱”来利用顺从的对手。本文还为谈判机器人的设计提供了实用见解,并提出了一个基于博弈论和计算社会科学的谈判行为评估框架。
🔬 方法详解
问题定义:现有AI谈判agent通常缺乏对人类复杂人格特征的建模能力,导致其谈判策略单一,难以适应不同的谈判对手和场景。此外,如何有效评估AI谈判agent的公平性和风险偏好也是一个挑战。
核心思路:本文的核心思路是利用大型语言模型(LLM)来模拟具有不同人格特征的谈判agent。通过控制LLM的输出,使其表现出不同的人格特质(基于“大五人格”模型),并观察这些agent在谈判博弈中的行为表现。这样可以研究人格特征对谈判策略的影响,并为设计更智能、更人性化的谈判机器人提供指导。
技术框架:本文的技术框架主要包括以下几个部分:1) 使用LLM构建具有不同人格特征的谈判agent;2) 设计单议题和多议题谈判博弈场景;3) 进行大量的模拟实验(n=1500);4) 使用梯度提升回归和Shapley值分析来评估人格特征与谈判行为之间的关系。
关键创新:本文的关键创新在于将LLM应用于谈判博弈领域,并探索了人格特征对谈判行为的影响。通过这种方法,可以更好地理解人类的谈判策略,并为设计更智能的AI谈判agent提供新的思路。此外,本文还提出了一种基于博弈论和计算社会科学的谈判行为评估框架。
关键设计:在实验设计方面,本文使用了“大五人格”模型来定义agent的人格特征,并设计了单议题和多议题谈判博弈场景。在数据分析方面,本文使用了梯度提升回归和Shapley值分析来评估人格特征与谈判行为之间的关系。此外,本文还考虑了公平性和风险偏好等因素,并提出了相应的评估方法。
🖼️ 关键图片
📊 实验亮点
实验结果表明,高开放性、责任心和神经质与公平倾向相关,而低宜人性和低开放性与理性倾向相关。此外,低责任心与高毒性相关。这些结果表明,LLM可能内置了公平行为的保护机制,但可以通过“越狱”来利用顺从的对手。多议题谈判中,议题复杂性和非对称估值能提高协议达成率,但会因激进谈判而降低收益。
🎯 应用场景
该研究成果可应用于智能谈判机器人设计、人机交互、心理学研究等领域。例如,可以开发能够根据对手人格特征调整谈判策略的AI agent,提高谈判效率和成功率。此外,该研究还可以帮助人们更好地理解人格特征对决策行为的影响,从而在实际生活中做出更明智的决策。
📄 摘要(原文)
Powered by large language models (LLMs), AI agents have become capable of many human tasks. Using the most canonical definitions of the Big Five personality, we measure the ability of LLMs to negotiate within a game-theoretical framework, as well as methodological challenges to measuring notions of fairness and risk. Simulations (n=1,500) for both single-issue and multi-issue negotiation reveal increase in domain complexity with asymmetric issue valuations improve agreement rates but decrease surplus from aggressive negotiation. Through gradient-boosted regression and Shapley explainers, we find high openness, conscientiousness, and neuroticism are associated with fair tendencies; low agreeableness and low openness are associated with rational tendencies. Low conscientiousness is associated with high toxicity. These results indicate that LLMs may have built-in guardrails that default to fair behavior, but can be "jail broken" to exploit agreeable opponents. We also offer pragmatic insight in how negotiation bots can be designed, and a framework of assessing negotiation behavior based on game theory and computational social science.