When AI companions become witty: Can human brain recognize AI-generated irony?
作者: Xiaohui Rao, Hanlin Wu, Zhenguang G. Cai
分类: cs.CL
发布日期: 2025-10-20
💡 一句话要点
探究人类大脑对AI生成反讽的认知:人类是否将AI视为有意的交流主体?
🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 人机交互 大型语言模型 反讽理解 意向性立场 事件相关电位 认知神经科学 社交机器人
📋 核心要点
- 现有大型语言模型(LLMs)能够生成幽默和反讽,但人类是否将其视为有意的交流主体仍是挑战。
- 本研究通过比较人类和AI生成的反讽语句,分析人类在理解反讽时是否对AI采取意向性立场。
- 实验结果表明,人类对AI生成反讽的意向性归因较弱,神经反应也显示出更少的认知努力。
📝 摘要(中文)
随着大型语言模型(LLMs)越来越多地被部署为社交智能体,并被训练成能够产生幽默和反讽,一个问题浮出水面:当遇到AI机智的言论时,人们会将其解释为有意的交流,还是仅仅是计算输出?本研究旨在探讨人们在理解反讽时,是否会采取意向性立场,即通过赋予心理状态来解释行为。反讽提供了一个理想的范例,因为它需要区分有意的矛盾和无意的错误,这需要付出努力的语义再分析。我们比较了来自AI和人类的反讽陈述的行为和神经反应,使用了已建立的ERP成分:P200反映了早期不协调检测,P600索引了将不协调重新解释为故意反讽的认知努力。结果表明,人们并没有完全对AI生成的反讽采取意向性立场。在行为上,参与者将不协调归因于两种来源的故意交流,但AI的归因明显低于人类,这表明人们更倾向于将AI的不协调解释为计算错误。神经数据揭示了AI生成的反讽的P200和P600效应减弱,表明检测和再分析的努力减少,这与对交流意图的归因减少相一致。值得注意的是,那些认为AI更真诚的人对AI生成的反讽表现出更大的P200和P600效应,这表明意向性立场的采用是由特定的人工智能智能体心理模型校准的。这些发现表明,来源归因塑造了对社会交流现象的神经处理。尽管目前的LLM具有语言复杂性,但实现真正的社会能动性需要的不仅仅是语言能力,还需要转变人类感知和归因于人工智能智能体的意图的方式。
🔬 方法详解
问题定义:论文旨在研究当AI生成具有反讽意味的语句时,人类是否会像理解人类的反讽一样,将其视为一种有意的交流行为,并赋予AI相应的心理状态。现有方法主要关注AI的语言生成能力,而忽略了人类对AI作为交流主体的认知和接受程度,这直接影响了AI在社交场景中的应用效果。
核心思路:论文的核心思路是通过比较人类和AI生成的反讽语句,观察人类在行为和神经层面的反应差异,从而推断人类是否对AI采取了意向性立场。意向性立场是指将行为归因于行为者的心理状态(如意图、信念等)的倾向。反讽是一种特殊的语言现象,需要听者识别说话者的真实意图与表面意义之间的差异,因此非常适合用于研究人类对AI意图的认知。
技术框架:论文采用事件相关电位(ERP)技术,记录参与者在阅读人类和AI生成的反讽语句时的脑电活动。实验流程包括:1) 呈现语境描述;2) 呈现人类或AI生成的反讽语句;3) 记录参与者的行为反应(如对语句的理解程度);4) 分析ERP成分(P200和P600),以反映早期不协调检测和认知重分析过程。同时,论文还收集了参与者对AI真诚度的评价,以分析其对神经反应的影响。
关键创新:论文的关键创新在于将意向性立场理论与神经科学方法相结合,研究人类对AI生成反讽的认知过程。通过分析ERP成分,论文揭示了人类在处理AI反讽时,认知努力程度低于处理人类反讽,这表明人类对AI的意向性归因较弱。此外,论文还发现,对AI真诚度的评价会影响人类对AI反讽的神经反应,这表明人类对AI的认知模型会影响其对AI交流行为的理解。
关键设计:论文的关键设计包括:1) 选取P200和P600作为ERP分析的关键成分,P200反映早期不协调检测,P600反映认知重分析过程;2) 控制人类和AI生成的反讽语句的语义难度和语境相关性,确保实验结果的可靠性;3) 使用问卷调查评估参与者对AI真诚度的认知,并将其作为协变量纳入统计分析模型。
📊 实验亮点
实验结果表明,人类对AI生成反讽的P200和P600效应显著减弱,表明认知努力程度降低。行为数据也显示,人类更倾向于将AI的反讽理解为计算错误而非有意交流。值得注意的是,那些认为AI更真诚的参与者,对AI反讽的P200和P600效应更大,这表明人类对AI的认知模型会影响其对AI交流行为的理解。
🎯 应用场景
该研究成果可应用于提升人机交互的自然性和流畅性,尤其是在社交机器人、虚拟助手等领域。理解人类对AI意图的认知,有助于设计更符合人类期望的AI交流策略,从而增强用户信任感和满意度。此外,该研究也为AI伦理研究提供了新的视角,即关注人类如何看待和对待AI,而非仅仅关注AI的技术能力。
📄 摘要(原文)
As Large Language Models (LLMs) are increasingly deployed as social agents and trained to produce humor and irony, a question emerges: when encountering witty AI remarks, do people interpret these as intentional communication or mere computational output? This study investigates whether people adopt the intentional stance, attributing mental states to explain behavior,toward AI during irony comprehension. Irony provides an ideal paradigm because it requires distinguishing intentional contradictions from unintended errors through effortful semantic reanalysis. We compared behavioral and neural responses to ironic statements from AI versus human sources using established ERP components: P200 reflecting early incongruity detection and P600 indexing cognitive efforts in reinterpreting incongruity as deliberate irony. Results demonstrate that people do not fully adopt the intentional stance toward AI-generated irony. Behaviorally, participants attributed incongruity to deliberate communication for both sources, though significantly less for AI than human, showing greater tendency to interpret AI incongruities as computational errors. Neural data revealed attenuated P200 and P600 effects for AI-generated irony, suggesting reduced effortful detection and reanalysis consistent with diminished attribution of communicative intent. Notably, people who perceived AI as more sincere showed larger P200 and P600 effects for AI-generated irony, suggesting that intentional stance adoption is calibrated by specific mental models of artificial agents. These findings reveal that source attribution shapes neural processing of social-communicative phenomena. Despite current LLMs' linguistic sophistication, achieving genuine social agency requires more than linguistic competence, it necessitates a shift in how humans perceive and attribute intentionality to artificial agents.