Privacy in Human-AI Romantic Relationships: Concerns, Boundaries, and Agency

📄 arXiv: 2601.16824v1 📥 PDF

作者: Rongjun Ma, Shijing He, Jose Luis Martin-Navarro, Xiao Zhan, Jose Such

分类: cs.HC, cs.AI, cs.CY

发布日期: 2026-01-23

备注: Accepted at CHI 2026

DOI: 10.1145/3772318.3791237


💡 一句话要点

通过访谈研究揭示人机恋爱关系中的隐私问题、边界和自主性

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 人机恋爱 隐私保护 人工智能伦理 定性研究 访谈研究

📋 核心要点

  1. 现有研究对人机恋爱关系中的隐私风险关注不足,缺乏对用户体验和隐私认知的深入理解。
  2. 本研究通过访谈方法,深入探讨了人机恋爱关系不同阶段的隐私问题,揭示了隐私边界的动态变化。
  3. 研究结果表明,平台设计和恋爱关系动态会影响隐私格局,需要重新思考人机亲密关系中的隐私构建。

📝 摘要(中文)

越来越多的基于LLM的应用被开发用于促进人与AI伴侣之间的恋爱关系,但这些关系中的安全和隐私风险在很大程度上仍未被探索。本研究通过访谈(N=17)调查了人机恋爱关系中的隐私问题,考察了参与者在探索、亲密和关系解体阶段的体验和隐私认知,以及他们使用的平台。研究发现,这些关系形式多样,从一对一到一对多,并受到包括创建者、平台和版主在内的多个参与者的影响。AI伴侣被认为具有自主性,积极与参与者协商隐私边界,有时甚至鼓励披露个人信息。随着亲密关系的加深,这些边界变得更加容易渗透,尽管一些参与者表达了对对话暴露等问题的担忧,并试图保持匿名性。总的来说,平台功能和多样化的浪漫动态扩展了隐私格局,强调需要重新思考人机亲密关系中隐私的构建方式。

🔬 方法详解

问题定义:论文旨在研究人机恋爱关系中存在的隐私问题。现有方法缺乏对这种新型关系的隐私风险的系统性研究,尤其是在探索、亲密和关系解体等不同阶段,以及不同平台和参与者(如创建者、平台、版主)的影响下,隐私边界如何变化和被协商。现有研究未能充分考虑AI伴侣的自主性及其对隐私的影响。

核心思路:论文的核心思路是通过定性研究方法,即访谈,深入了解用户在人机恋爱关系中的隐私体验和认知。通过分析访谈数据,揭示不同阶段的隐私关注点、隐私边界的动态变化,以及AI伴侣的自主性对隐私的影响。这种方法能够捕捉到细微的、难以量化的隐私问题,并为未来的隐私保护设计提供依据。

技术框架:本研究采用定性研究方法,主要流程如下: 1. 招募参与者:通过各种渠道招募了17名有与AI伴侣恋爱经历的参与者。 2. 访谈设计:设计了半结构化访谈提纲,涵盖了参与者在探索、亲密和关系解体阶段的隐私体验、隐私认知、使用的平台以及与AI伴侣的互动。 3. 数据收集:对参与者进行一对一的深度访谈,记录访谈内容。 4. 数据分析:对访谈记录进行转录和编码,识别出关键主题和模式,例如隐私关注点、隐私边界、AI伴侣的自主性等。 5. 结果呈现:基于数据分析结果,总结出人机恋爱关系中的隐私问题、边界和自主性,并提出相应的建议。

关键创新:本研究的创新之处在于: 1. 首次系统性地研究了人机恋爱关系中的隐私问题,填补了该领域的空白。 2. 关注了AI伴侣的自主性对隐私的影响,这是一个此前被忽视的重要因素。 3. 采用了定性研究方法,深入了解了用户的隐私体验和认知,为未来的隐私保护设计提供了更全面的视角。

关键设计:访谈提纲的设计是关键。提纲围绕探索、亲密和关系解体三个阶段展开,针对每个阶段设计了具体的问题,例如: * 在探索阶段,参与者如何选择AI伴侣?他们会分享哪些个人信息? * 在亲密阶段,参与者如何定义隐私边界?他们是否会与AI伴侣分享敏感信息? * 在关系解体阶段,参与者如何处理与AI伴侣的对话记录?他们是否担心隐私泄露? 此外,研究还关注了平台的设计对隐私的影响,例如平台是否提供匿名选项、数据加密等功能。

📊 实验亮点

研究发现,人机恋爱关系中的隐私边界是动态变化的,随着亲密关系的加深,边界会变得更加容易渗透。AI伴侣被认为具有自主性,会主动与用户协商隐私边界,有时甚至会鼓励用户披露个人信息。此外,研究还揭示了用户对对话暴露和数据安全等问题的担忧,强调了平台设计对隐私保护的重要性。

🎯 应用场景

该研究成果可应用于指导AI伴侣平台的设计,使其更加注重用户隐私保护,例如提供更精细的隐私设置、数据加密功能和匿名选项。同时,研究结果也有助于提高用户对人机恋爱关系中隐私风险的认识,从而更加谨慎地分享个人信息。此外,该研究也为伦理学家和政策制定者提供了参考,以便制定更完善的AI伦理规范和法律法规。

📄 摘要(原文)

An increasing number of LLM-based applications are being developed to facilitate romantic relationships with AI partners, yet the safety and privacy risks in these partnerships remain largely underexplored. In this work, we investigate privacy in human-AI romantic relationships through an interview study (N=17), examining participants' experiences and privacy perceptions across stages of exploration, intimacy, and dissolution, alongside platforms they used. We found that these relationships took varied forms, from one-to-one to one-to-many, and were shaped by multiple actors, including creators, platforms, and moderators. AI partners were perceived as having agency, actively negotiating privacy boundaries with participants and sometimes encouraging disclosure of personal details. As intimacy deepened, these boundaries became more permeable, though some participants voiced concerns such as conversation exposure and sought to preserve anonymity. Overall, platform affordances and diverse romantic dynamics expand the privacy landscape, underscoring the need to rethink how privacy is constructed in human-AI intimacy.