Comparing Self-Disclosure Themes and Semantics to a Human, a Robot, and a Disembodied Agent
作者: Sophie Chiang, Guy Laban, Emily S. Cross, Hatice Gunes
分类: cs.HC, cs.RO
发布日期: 2025-04-08
💡 一句话要点
研究揭示:在人、机器人和虚拟代理面前,人类自我暴露的主题和语义表达具有一致性。
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱七:动作重定向 (Motion Retargeting) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 人机交互 社交机器人 自我暴露 语义分析 主题建模
📋 核心要点
- 现有研究缺乏对不同形态代理(人、机器人、虚拟代理)影响人类自我暴露内容和方式的深入对比分析。
- 本研究通过分析人类与不同形态代理的对话数据,利用句子嵌入和聚类方法识别自我暴露的主题。
- 实验结果表明,人类在与不同形态代理交互时,自我暴露的主题分布和语义结构具有高度一致性。
📝 摘要(中文)
随着社交机器人和其他人工智能代理在对话能力上的提升,理解人类对不同形态的代理进行自我暴露时,其内容和意义是否会发生变化至关重要。本研究分析了三个受控实验中的对话数据,参与者分别向人类、人形社交机器人和无实体对话代理进行自我暴露。通过句子嵌入和聚类,我们识别了参与者暴露的主题,并由大型语言模型进行标记和解释。随后,我们评估了这些主题和暴露的潜在语义结构是否因代理形态而异。研究结果表明,主题分布在不同形态的代理中没有显著差异,语义相似性分析表明,暴露以高度相似的方式表达。这些结果表明,虽然形态可能会影响人机交互和人机代理交互中的人类行为,但人们在与人类或人工智能对话者交谈时,倾向于保持一致的主题焦点和语义结构。
🔬 方法详解
问题定义:本研究旨在探究在人机交互中,代理的形态(人形机器人、虚拟代理、人类)是否会影响人类的自我暴露行为,具体体现在自我暴露的主题和语义表达上。现有研究对不同形态代理的影响缺乏系统性的对比分析,难以确定形态因素在人机交互中的作用。
核心思路:核心思路是通过对比人类与不同形态代理交互时的自我暴露数据,分析主题分布和语义相似性,从而判断代理形态是否对人类的自我暴露行为产生显著影响。假设如果形态影响不大,那么主题分布和语义表达应该具有一致性。
技术框架:整体框架包含数据收集、主题识别和语义分析三个主要阶段。首先,通过受控实验收集人类与三种不同形态代理的对话数据。然后,利用句子嵌入技术将对话文本转换为向量表示,并使用聚类算法识别自我暴露的主题。最后,通过语义相似性分析比较不同形态代理下的自我暴露表达。
关键创新:本研究的关键创新在于系统性地对比了三种不同形态代理对人类自我暴露行为的影响,并结合句子嵌入、聚类和语义相似性分析等技术,对自我暴露的主题和语义表达进行了深入分析。此外,利用大型语言模型对聚类结果进行主题标注,提高了主题识别的准确性和可解释性。
关键设计:在数据收集阶段,采用受控实验设计,确保参与者在与不同形态代理交互时具有相同的任务目标和情境。在主题识别阶段,选择合适的句子嵌入模型(具体模型未知)和聚类算法(具体算法未知),并调整聚类参数以获得合理的主题划分。在语义分析阶段,采用余弦相似度等指标来衡量不同形态代理下的自我暴露表达的相似程度。
🖼️ 关键图片
📊 实验亮点
实验结果表明,无论交互对象是人类、人形机器人还是虚拟代理,人类自我暴露的主题分布和语义结构都表现出高度一致性。这表明,在一定程度上,人类对待不同形态的交互对象时,会保持相对稳定的自我暴露模式。这一发现为理解人机交互中的社会认知过程提供了新的视角。
🎯 应用场景
该研究成果可应用于社交机器人设计、虚拟助手开发和心理咨询等领域。理解人类在与不同形态代理交互时的自我暴露行为,有助于设计更自然、更有效的交互界面,提升用户体验。例如,可以根据用户的自我暴露主题,提供个性化的服务和建议,从而增强人机之间的信任和情感连接。
📄 摘要(原文)
As social robots and other artificial agents become more conversationally capable, it is important to understand whether the content and meaning of self-disclosure towards these agents changes depending on the agent's embodiment. In this study, we analysed conversational data from three controlled experiments in which participants self-disclosed to a human, a humanoid social robot, and a disembodied conversational agent. Using sentence embeddings and clustering, we identified themes in participants' disclosures, which were then labelled and explained by a large language model. We subsequently assessed whether these themes and the underlying semantic structure of the disclosures varied by agent embodiment. Our findings reveal strong consistency: thematic distributions did not significantly differ across embodiments, and semantic similarity analyses showed that disclosures were expressed in highly comparable ways. These results suggest that while embodiment may influence human behaviour in human-robot and human-agent interactions, people tend to maintain a consistent thematic focus and semantic structure in their disclosures, whether speaking to humans or artificial interlocutors.