Must Read: A Systematic Survey of Computational Persuasion

📄 arXiv: 2505.07775v1 📥 PDF

作者: Nimet Beyza Bozdag, Shuhaib Mehri, Xiaocheng Yang, Hyeonjeong Ha, Zirui Cheng, Esin Durmus, Jiaxuan You, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür

分类: cs.CL, cs.AI, cs.CY

发布日期: 2025-05-12


💡 一句话要点

计算说服的系统性综述:探讨AI作为说服者、被说服者和判断者的角色与挑战

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 计算说服 人工智能 自然语言处理 伦理AI 对抗攻击 偏见缓解 说服策略

📋 核心要点

  1. 现有方法在理解说服的有效性方面存在局限,因为说服本质上是主观的且依赖于具体情境。
  2. 该综述从三个角度探讨计算说服:AI作为说服者、被说服者和判断者,构建了全面的研究框架。
  3. 该研究旨在识别计算说服中的关键挑战,并为未来开发更安全、公平和有效的AI说服系统指明方向。

📝 摘要(中文)

说服是沟通的基本要素,影响着从日常对话到政治、营销和法律等高风险场景中的决策。会话式AI系统的兴起极大地扩展了说服的范围,带来了机遇和风险。AI驱动的说服可用于有益的应用,但也可能通过操纵和不道德的影响构成威胁。此外,AI系统不仅是说服者,也容易被说服,使其容易受到对抗性攻击和偏见强化。尽管AI生成的说服性内容取得了快速进展,但由于其固有的主观性和情境依赖性,我们对说服有效性的理解仍然有限。本综述全面概述了计算说服,围绕三个关键视角构建:(1) AI作为说服者,探讨AI生成的说服性内容及其应用;(2) AI作为被说服者,考察AI对影响和操纵的敏感性;(3) AI作为说服判断者,分析AI在评估说服策略、检测操纵和确保道德说服方面的作用。我们介绍了计算说服研究的分类,并讨论了关键挑战,包括评估说服力、减轻操纵性说服以及开发负责任的AI驱动的说服系统。我们的综述概述了未来的研究方向,以提高AI驱动的说服的安全、公平和有效性,同时解决日益强大的语言模型带来的风险。

🔬 方法详解

问题定义:当前对计算说服的理解不足,尤其是在AI作为说服者、被说服者和判断者的多重角色下。现有方法难以有效评估说服力、减轻操纵性说服,并开发负责任的AI说服系统。

核心思路:该综述的核心思路是将计算说服分解为三个关键视角:AI作为说服者(生成说服性内容)、AI作为被说服者(易受影响性)和AI作为说服判断者(评估说服策略)。通过系统地分析这三个方面,可以更全面地理解计算说服的复杂性。

技术框架:该综述没有提出新的技术框架,而是对现有研究进行了系统性的分类和总结。它构建了一个计算说服研究的分类体系,并讨论了关键挑战和未来研究方向。整体流程是:定义计算说服的范围 -> 划分三个关键视角 -> 总结每个视角下的研究进展 -> 识别关键挑战 -> 提出未来研究方向。

关键创新:该综述的主要创新在于其系统性的视角和全面的覆盖范围。它首次将AI在说服过程中的多重角色明确区分开来,并对每个角色下的研究进行了深入的分析。这种系统性的视角有助于研究人员更好地理解计算说服的复杂性,并为未来的研究提供指导。

关键设计:该综述的关键设计在于其分类体系,它将计算说服研究划分为AI作为说服者、被说服者和判断者三个主要类别。每个类别下又进一步细分为不同的子类别,例如,AI作为说服者可以细分为内容生成、策略选择等。这种分类方式有助于研究人员更好地组织和理解大量的研究文献。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

该综述系统地总结了计算说服领域的研究进展,并指出了当前研究的局限性和未来的研究方向。它强调了评估说服力、减轻操纵性说服以及开发负责任的AI说服系统的重要性。该综述为研究人员提供了一个全面的参考,并为未来的研究提供了指导。

🎯 应用场景

该研究对开发更安全、公平和有效的AI说服系统具有重要意义。潜在应用包括:个性化教育、健康行为干预、公平的在线广告、以及抵御恶意信息传播。通过理解AI的说服能力和易受影响性,可以开发出更负责任的AI应用,并减轻潜在的社会风险。

📄 摘要(原文)

Persuasion is a fundamental aspect of communication, influencing decision-making across diverse contexts, from everyday conversations to high-stakes scenarios such as politics, marketing, and law. The rise of conversational AI systems has significantly expanded the scope of persuasion, introducing both opportunities and risks. AI-driven persuasion can be leveraged for beneficial applications, but also poses threats through manipulation and unethical influence. Moreover, AI systems are not only persuaders, but also susceptible to persuasion, making them vulnerable to adversarial attacks and bias reinforcement. Despite rapid advancements in AI-generated persuasive content, our understanding of what makes persuasion effective remains limited due to its inherently subjective and context-dependent nature. In this survey, we provide a comprehensive overview of computational persuasion, structured around three key perspectives: (1) AI as a Persuader, which explores AI-generated persuasive content and its applications; (2) AI as a Persuadee, which examines AI's susceptibility to influence and manipulation; and (3) AI as a Persuasion Judge, which analyzes AI's role in evaluating persuasive strategies, detecting manipulation, and ensuring ethical persuasion. We introduce a taxonomy for computational persuasion research and discuss key challenges, including evaluating persuasiveness, mitigating manipulative persuasion, and developing responsible AI-driven persuasive systems. Our survey outlines future research directions to enhance the safety, fairness, and effectiveness of AI-powered persuasion while addressing the risks posed by increasingly capable language models.