Exploring User Acceptance and Concerns toward LLM-powered Conversational Agents in Immersive Extended Reality

📄 arXiv: 2512.15343v1 📥 PDF

作者: Efe Bozkir, Enkelejda Kasneci

分类: cs.HC, cs.AI, cs.CY

发布日期: 2025-12-17


💡 一句话要点

探索用户对XR沉浸式环境中LLM驱动对话代理的接受度与担忧

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 扩展现实 大型语言模型 对话代理 用户接受度 隐私担忧

📋 核心要点

  1. 现有XR环境中的对话代理缺乏对用户接受度和隐私担忧的深入理解,可能导致用户不信任和数据泄露风险。
  2. 通过大规模众包研究,分析用户在不同XR场景下对LLM对话代理的接受度,并量化用户对不同类型数据的敏感程度。
  3. 研究发现用户对LLM对话代理普遍接受,但对安全、隐私和社会影响存在担忧,熟悉程度和性别是影响接受度的重要因素。

📝 摘要(中文)

生成式人工智能(AI)和大型语言模型(LLM)的快速发展,以及相关服务的普及,使得公众开始将其融入日常生活。扩展现实(XR)社区也积极将LLM集成到对话代理中,以提升用户体验和任务效率。然而,与此类对话代理交互时,用户可能因对话的自然流畅性而轻易泄露敏感信息,并且将这些对话数据与细粒度的传感器数据结合可能导致新的隐私问题。为了解决这些问题,对技术接受度和担忧进行以用户为中心的理解至关重要。因此,我们进行了一项大规模众包研究,共有1036名参与者,研究了用户在XR中对LLM驱动的对话代理的决策过程,考察了XR环境类型、语音交互类型和数据处理位置等因素。我们发现,虽然用户普遍接受这些技术,但他们也表达了对安全性、隐私、社会影响和信任的担忧。我们的结果表明,熟悉程度起着关键作用,因为日常使用生成式AI与更高的接受度相关。相反,之前拥有XR设备与较低的接受度相关,这可能是由于对设置的现有熟悉程度。我们还发现,男性比女性报告了更高的接受度,担忧更少。关于数据类型敏感性,位置数据引起了最大的担忧,而体温和虚拟对象状态被认为是最不敏感的。总的来说,我们的研究强调了从业者有效向用户传达其措施的重要性,因为用户可能仍然不信任。最后,我们总结了LLM驱动的XR的意义和建议。

🔬 方法详解

问题定义:论文旨在解决在XR环境中,用户对于集成LLM的对话代理的接受程度和潜在担忧的问题。现有方法缺乏对用户主观感受的量化分析,无法有效指导LLM对话代理的设计和部署,可能导致用户抵触和隐私泄露风险。

核心思路:论文的核心思路是通过大规模用户调研,量化用户对LLM对话代理的接受程度,并分析不同因素(如XR环境类型、交互方式、数据处理位置)对接受度的影响。同时,评估用户对不同类型数据的敏感程度,为隐私保护策略提供依据。

技术框架:论文采用众包研究方法,招募1036名参与者,让他们在不同的XR场景下体验LLM驱动的对话代理。通过问卷调查收集用户对接受度、担忧程度、数据敏感性的主观评价。然后,使用统计分析方法,分析不同因素对用户评价的影响。

关键创新:论文的关键创新在于:1)首次大规模量化分析了用户对XR环境中LLM对话代理的接受度和担忧;2)揭示了熟悉程度、性别等因素对接受度的影响;3)评估了用户对不同类型数据的敏感程度,为隐私保护提供了更细粒度的指导。

关键设计:研究设计了多种XR场景,包括不同的XR环境类型(如虚拟现实、增强现实)、语音交互类型(如自然语言、命令式语言)和数据处理位置(如本地、云端)。问卷调查包含多个维度的问题,用于评估用户的接受度、担忧程度、信任感和数据敏感性。采用方差分析、回归分析等统计方法,分析不同因素对用户评价的影响。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

研究发现,用户普遍接受XR中LLM对话代理,但对安全和隐私存在担忧。日常使用生成式AI的用户接受度更高,而之前拥有XR设备的用户接受度较低。男性比女性表现出更高的接受度。位置数据是最敏感的数据类型,而体温和虚拟对象状态被认为最不敏感。这些发现为LLM驱动的XR应用开发提供了重要指导。

🎯 应用场景

该研究成果可应用于XR社交、XR教育、XR游戏等领域,指导开发者设计更安全、更值得信赖的LLM驱动的对话代理。通过了解用户对不同数据类型的敏感程度,可以制定更有效的隐私保护策略,提升用户体验和接受度。研究结果还有助于制定相关伦理规范和行业标准。

📄 摘要(原文)

The rapid development of generative artificial intelligence (AI) and large language models (LLMs), and the availability of services that make them accessible, have led the general public to begin incorporating them into everyday life. The extended reality (XR) community has also sought to integrate LLMs, particularly in the form of conversational agents, to enhance user experience and task efficiency. When interacting with such conversational agents, users may easily disclose sensitive information due to the naturalistic flow of the conversations, and combining such conversational data with fine-grained sensor data may lead to novel privacy issues. To address these issues, a user-centric understanding of technology acceptance and concerns is essential. Therefore, to this end, we conducted a large-scale crowdsourcing study with 1036 participants, examining user decision-making processes regarding LLM-powered conversational agents in XR, across factors of XR setting type, speech interaction type, and data processing location. We found that while users generally accept these technologies, they express concerns related to security, privacy, social implications, and trust. Our results suggest that familiarity plays a crucial role, as daily generative AI use is associated with greater acceptance. In contrast, previous ownership of XR devices is linked to less acceptance, possibly due to existing familiarity with the settings. We also found that men report higher acceptance with fewer concerns than women. Regarding data type sensitivity, location data elicited the most significant concern, while body temperature and virtual object states were considered least sensitive. Overall, our study highlights the importance of practitioners effectively communicating their measures to users, who may remain distrustful. We conclude with implications and recommendations for LLM-powered XR.