How Does Cognitive Bias Affect Large Language Models? A Case Study on the Anchoring Effect in Price Negotiation Simulations
作者: Yoshiki Takenami, Yin Jou Huang, Yugo Murawaki, Chenhui Chu
分类: cs.CL
发布日期: 2025-08-28 (更新: 2025-09-17)
备注: 18 pages, 2 figures. Accepted to EMNLP 2025 findings
💡 一句话要点
研究表明大型语言模型在价格谈判中受锚定效应影响
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 认知偏差 锚定效应 价格谈判 智能代理
📋 核心要点
- 大型语言模型在实际应用中可能受到认知偏差的影响,降低其可靠性,因此研究LLM中的认知偏差至关重要。
- 该研究通过构建价格谈判模拟环境,并指示LLM代理应用锚定效应,来评估LLM在谈判中受锚定效应的影响程度。
- 实验结果表明,LLM确实受到锚定效应的影响,且推理能力强的模型受影响较小,但人格特质与锚定效应敏感性无明显关联。
📝 摘要(中文)
认知偏差在人类中已被广泛研究,在大型语言模型(LLM)中也可能存在,影响其在实际应用中的可靠性。本文研究了LLM驱动的价格谈判中的锚定效应。为此,我们指示卖家LLM代理应用锚定效应,并使用客观和主观指标评估谈判结果。实验结果表明,LLM像人类一样受到锚定效应的影响。此外,我们还研究了锚定效应与推理和个性等因素之间的关系。结果表明,具有推理能力的模型不太容易受到锚定效应的影响,这表明长链思考可以减轻这种效应。然而,我们没有发现人格特质与对锚定效应的敏感性之间存在显著相关性。这些发现有助于更深入地理解LLM中的认知偏差,并有助于在社会中安全和负责任地应用LLM。
🔬 方法详解
问题定义:论文旨在研究大型语言模型(LLM)在价格谈判场景中是否会受到锚定效应的影响。现有方法缺乏对LLM认知偏差的深入分析,尤其是在谈判等复杂决策场景中,LLM的可靠性受到质疑。锚定效应是指人们在决策时,容易受到最初获得的信息(即“锚”)的影响,即使这些信息与决策本身无关。
核心思路:论文的核心思路是通过构建一个价格谈判模拟环境,让LLM扮演卖方角色,并人为地引入不同的“锚定价格”,观察LLM最终的谈判价格是否会受到这些锚定价格的影响。通过对比不同锚定价格下的谈判结果,以及分析LLM的推理能力和人格特质与锚定效应之间的关系,来揭示LLM的认知偏差。
技术框架:整体框架包括以下几个主要步骤:1) 构建价格谈判模拟环境,设定谈判规则和目标;2) 使用LLM作为卖方代理,并赋予其一定的谈判策略;3) 在谈判过程中,人为地引入不同的锚定价格;4) 记录LLM的谈判过程和最终成交价格;5) 使用客观指标(如最终成交价格与实际价值的偏差)和主观指标(如谈判满意度)来评估谈判结果;6) 分析锚定价格、LLM的推理能力和人格特质与谈判结果之间的关系。
关键创新:该研究的创新点在于:1) 将认知偏差的研究引入到LLM领域,关注LLM在复杂决策场景中的可靠性;2) 构建了一个价格谈判模拟环境,为研究LLM的认知偏差提供了一个可控的实验平台;3) 同时使用了客观和主观指标来评估谈判结果,更全面地反映了LLM的认知偏差。
关键设计:论文的关键设计包括:1) 使用不同的LLM模型作为卖方代理,以验证结果的泛化性;2) 设计了不同的锚定价格,以观察锚定效应的强度;3) 引入了推理能力和人格特质等因素,以分析其与锚定效应之间的关系;4) 使用了统计方法来分析实验数据,以验证结果的显著性。
🖼️ 关键图片
📊 实验亮点
实验结果表明,LLM在价格谈判中确实受到锚定效应的影响,类似于人类。具体来说,LLM的最终成交价格会受到锚定价格的影响,锚定价格越高,最终成交价格也越高。此外,研究发现具有推理能力的LLM模型受锚定效应的影响较小,这表明长链思考有助于减轻认知偏差。但人格特质与锚定效应的敏感性没有显著相关性。
🎯 应用场景
该研究成果可应用于开发更可靠、更值得信赖的LLM驱动的智能代理,例如在电商、金融等领域的自动谈判系统。通过了解LLM的认知偏差,可以设计相应的算法来减轻这些偏差的影响,提高LLM在实际应用中的决策质量,并促进LLM在社会中的安全和负责任的应用。未来的研究可以探索更多类型的认知偏差,并开发更有效的缓解策略。
📄 摘要(原文)
Cognitive biases, well-studied in humans, can also be observed in LLMs, affecting their reliability in real-world applications. This paper investigates the anchoring effect in LLM-driven price negotiations. To this end, we instructed seller LLM agents to apply the anchoring effect and evaluated negotiations using not only an objective metric but also a subjective metric. Experimental results show that LLMs are influenced by the anchoring effect like humans. Additionally, we investigated the relationship between the anchoring effect and factors such as reasoning and personality. It was shown that reasoning models are less prone to the anchoring effect, suggesting that the long chain of thought mitigates the effect. However, we found no significant correlation between personality traits and susceptibility to the anchoring effect. These findings contribute to a deeper understanding of cognitive biases in LLMs and to the realization of safe and responsible application of LLMs in society.