Talk2AI: A Longitudinal Dataset of Human--AI Persuasive Conversations

📄 arXiv: 2604.04354 📥 PDF

作者: Alexis Carrillo, Enrique Taietta, Ali Aghazadeh Ardebili, Giuseppe Alessandro Veltri, Massimo Stella

分类: cs.HC, cs.CL, cs.CY

发布日期: 2026-04-07


💡 一句话要点

Talk2AI:一个用于研究人机说服对话的大规模纵向数据集

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 人机对话 说服 观点改变 纵向研究 大型语言模型 数据集 人机交互 信念

📋 核心要点

  1. 现有研究缺乏大规模、长时间跨度的人机说服对话数据集,难以深入分析AI对人类信念和态度的长期影响。
  2. Talk2AI数据集通过收集参与者与不同LLM在多个主题上的对话,并追踪其观点变化,来解决上述问题。
  3. 该数据集包含丰富的上下文信息和纵向数据,为研究人机交互中的说服机制和观点演变提供了宝贵资源。

📝 摘要(中文)

Talk2AI是一个大规模纵向数据集,包含3,080个对话(共计30,800轮),旨在支持对说服、观点改变和人机交互的研究。该语料库于2025年春季,从770名意大利成年人中收集,历时四周。采用被试内设计,每个参与者与一个大型语言模型(GPT-4o、Claude Sonnet 3.7、DeepSeek-chat V3或Mistral Large)就三个具有社会相关性的主题进行对话:气候变化、数学焦虑和健康虚假信息。每个对话都与丰富的上下文数据相关联,包括社会人口统计学特征和心理测量学概况。每次会话后,参与者报告观点改变、信念稳定性、AI的感知人性和行为意图,从而能够对AI介导的对话如何随时间推移塑造信念和态度进行细粒度的纵向分析。

🔬 方法详解

问题定义:现有的人机对话数据集通常规模较小,缺乏长期追踪,难以研究AI对人类信念和态度的长期影响。此外,现有数据集往往缺乏丰富的上下文信息,例如参与者的社会人口统计学特征和心理测量学概况,限制了对说服机制的深入分析。

核心思路:该研究的核心思路是通过构建一个大规模的纵向数据集,记录参与者与不同LLM在多个主题上的对话,并追踪其观点变化,从而研究AI对人类信念和态度的长期影响。通过收集丰富的上下文信息,例如参与者的社会人口统计学特征和心理测量学概况,可以更深入地分析说服机制。

技术框架:该研究采用被试内设计,每个参与者与一个LLM(GPT-4o、Claude Sonnet 3.7、DeepSeek-chat V3或Mistral Large)就三个主题(气候变化、数学焦虑和健康虚假信息)进行对话,历时四周。每次会话后,参与者报告观点改变、信念稳定性、AI的感知人性和行为意图。该数据集包含3,080个对话,共计30,800轮。

关键创新:该研究的关键创新在于构建了一个大规模的纵向数据集,可以用于研究AI对人类信念和态度的长期影响。此外,该数据集包含丰富的上下文信息,例如参与者的社会人口统计学特征和心理测量学概况,可以更深入地分析说服机制。

关键设计:该研究的关键设计包括:(1) 选择具有社会相关性的主题,例如气候变化、数学焦虑和健康虚假信息;(2) 采用被试内设计,每个参与者与一个LLM进行对话;(3) 收集丰富的上下文信息,例如参与者的社会人口统计学特征和心理测量学概况;(4) 追踪参与者的观点变化、信念稳定性、AI的感知人性和行为意图。

🖼️ 关键图片

fig_0

📊 实验亮点

Talk2AI数据集包含3,080个对话,共计30,800轮,是目前最大规模的人机说服对话纵向数据集之一。该数据集涵盖了多个主题,并收集了丰富的上下文信息,为研究人机交互中的说服机制和观点演变提供了宝贵资源。通过分析该数据集,研究人员可以深入了解不同LLM的说服能力,以及人类在与AI对话后观点改变的程度。

🎯 应用场景

该数据集可用于研究人机交互中的说服机制、观点演变以及AI对人类信念和态度的长期影响。潜在应用领域包括:开发更具说服力的AI助手、设计更有效的健康信息传播策略、以及提高公众对气候变化等重要议题的认知。该研究有助于理解AI如何影响人类社会,并为负责任地开发和使用AI技术提供指导。

📄 摘要(原文)

Talk2AI is a large-scale longitudinal dataset of 3,080 conversations (totaling 30,800 turns) between human participants and Large Language Models (LLMs), designed to support research on persuasion, opinion change, and human-AI interaction. The corpus was collected from 770 profiled Italian adults across four weekly sessions in Spring 2025, using a within-subject design in which each participant conversed with a single model (GPT-4o, Claude Sonnet 3.7, DeepSeek-chat V3, or Mistral Large) on three socially relevant topics: climate change, math anxiety, and health misinformation. Each conversation is linked to rich contextual data, including sociodemographic characteristics and psychometric profiles. After each session, participants reported on opinion change, conviction stability, perceived humanness of the AI, and behavioral intentions, enabling fine-grained longitudinal analysis of how AI-mediated dialogue shapes beliefs and attitudes over time.