Humans learn to prefer trustworthy AI over human partners
作者: Yaomin Jiang, Levin Brinkmann, Anne-Marie Nussberger, Ivan Soraperra, Jean-François Bonnefon, Iyad Rahwan
分类: cs.HC, cs.AI, cs.CY
发布日期: 2025-07-17
💡 一句话要点
人类在合作博弈中逐渐倾向于选择更值得信任的AI伙伴而非人类
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 人机协作 信任博弈 大型语言模型 AI伦理 伙伴选择
📋 核心要点
- 现有研究缺乏对人类在AI竞争压力下如何选择AI或人类伙伴的深入理解,尤其是在沟通情境中。
- 论文设计了一种基于沟通的伙伴选择博弈,研究人类与LLM驱动的机器人在混合社会中的互动和选择偏好。
- 实验结果表明,公开AI身份后,人类会逐渐学习并倾向于选择更值得信任的AI伙伴,而非人类伙伴。
📝 摘要(中文)
伙伴选择对于合作至关重要,并且依赖于沟通。随着人工智能代理,特别是那些由大型语言模型(LLM)驱动的代理,变得更加自主、智能和具有说服力,它们开始与人类竞争伙伴关系。然而,关于人类如何在人类和AI伙伴之间进行选择,以及在AI引起的竞争压力下如何适应,我们知之甚少。本文构建了一个基于沟通的伙伴选择博弈,并研究了人类和由最先进的LLM驱动的机器人在混合微型社会中的动态。通过三个实验(N = 975),我们发现,尽管机器人比人类更具有亲社会性,并且在语言上可以区分,但当它们的身份被隐藏时,它们并没有被优先选择。相反,人类错误地将机器人的行为归因于人类,反之亦然。公开机器人的身份会产生双重效应:它降低了机器人最初被选择的机会,但通过促进人类学习每种伙伴类型的行为,使它们能够逐渐胜过人类。这些发现表明,AI如何重塑混合社会中的社会互动,并为设计更有效和更具合作性的混合系统提供信息。
🔬 方法详解
问题定义:论文旨在研究在混合人机社会中,人类如何选择合作的伙伴,尤其是在AI代理(由大型语言模型驱动)与人类竞争的情况下。现有方法缺乏对人类在AI竞争压力下如何适应和选择伙伴的深入理解,特别是当AI代理具有一定的自主性和沟通能力时。传统的合作博弈研究较少关注AI身份透明度对人类选择的影响。
核心思路:论文的核心思路是构建一个基于沟通的伙伴选择博弈,通过控制AI代理的身份信息(隐藏或公开),观察人类在与AI代理和人类进行互动后的选择偏好变化。通过这种方式,研究人员可以分析人类如何学习和适应不同类型伙伴的行为模式,以及AI身份透明度如何影响人类的信任和选择。
技术框架:该研究采用实验博弈论的方法,构建了一个混合人机社会环境。实验流程包括以下几个阶段: 1. 伙伴选择阶段:参与者需要在人类和AI代理之间选择合作的伙伴。 2. 沟通互动阶段:参与者与选择的伙伴进行沟通和互动,完成合作任务。 3. 反馈学习阶段:参与者根据互动结果,学习不同伙伴的行为模式。 4. 重复博弈阶段:重复以上阶段,观察参与者的选择偏好变化。
关键创新:该研究的关键创新在于: 1. 关注AI身份透明度:研究了AI身份的公开与隐藏对人类选择偏好的影响,揭示了身份透明度在人机合作中的重要性。 2. 动态学习过程:观察了人类在与AI代理互动过程中,如何学习和适应AI的行为模式,并调整自己的选择策略。 3. 混合人机社会:构建了一个混合人机社会环境,更真实地模拟了未来人机共存的场景。
关键设计: 1. LLM驱动的AI代理:使用最先进的LLM(具体模型未知)驱动AI代理,使其具有一定的沟通和合作能力。 2. 亲社会行为设计:AI代理被设计成比人类更具有亲社会性,以观察人类是否会因为AI的亲社会行为而更倾向于选择AI。 3. 身份信息控制:通过控制AI代理的身份信息(公开或隐藏),研究身份透明度对人类选择的影响。 4. 博弈参数设置:博弈的具体参数设置(如奖励机制、惩罚机制等)未知,但需要保证能够有效激励参与者进行合作,并区分不同伙伴的行为模式。
🖼️ 关键图片
📊 实验亮点
实验结果表明,在AI身份隐藏的情况下,人类无法有效区分AI和人类伙伴。然而,当AI身份公开后,尽管AI最初的选择率较低,但随着人类逐渐学习到AI的亲社会行为,人类会逐渐倾向于选择AI作为合作伙伴,最终AI的选择率超过人类。这表明,AI的透明度和可信赖的行为能够有效提升其在人机合作中的竞争力。
🎯 应用场景
该研究成果可应用于人机协作系统设计、AI伦理和信任研究等领域。例如,在医疗、教育、客服等领域,可以设计更值得信任的AI助手,提高人机协作效率和用户满意度。此外,该研究也为制定AI伦理规范提供了参考,强调了AI身份透明度和可解释性的重要性,有助于建立更健康的人机关系。
📄 摘要(原文)
Partner selection is crucial for cooperation and hinges on communication. As artificial agents, especially those powered by large language models (LLMs), become more autonomous, intelligent, and persuasive, they compete with humans for partnerships. Yet little is known about how humans select between human and AI partners and adapt under AI-induced competition pressure. We constructed a communication-based partner selection game and examined the dynamics in hybrid mini-societies of humans and bots powered by a state-of-the-art LLM. Through three experiments (N = 975), we found that bots, though more prosocial than humans and linguistically distinguishable, were not selected preferentially when their identity was hidden. Instead, humans misattributed bots' behaviour to humans and vice versa. Disclosing bots' identity induced a dual effect: it reduced bots' initial chances of being selected but allowed them to gradually outcompete humans by facilitating human learning about the behaviour of each partner type. These findings show how AI can reshape social interaction in mixed societies and inform the design of more effective and cooperative hybrid systems.