"Before, I Asked My Mom, Now I Ask ChatGPT": Visual Privacy Management with Generative AI for Blind and Low-Vision People

📄 arXiv: 2507.00286v2 📥 PDF

作者: Tanusree Sharma, Yu-Yun Tseng, Lotus Zhang, Ayae Ide, Kelly Avery Mack, Leah Findlater, Danna Gurari, Yang Wang

分类: cs.HC, cs.AI, cs.ET

发布日期: 2025-06-30 (更新: 2025-07-19)


💡 一句话要点

提出生成性AI以解决盲人和低视力者的视觉隐私管理问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 视觉隐私 生成性AI 盲人辅助技术 用户中心设计 隐私管理 低视力者 情感自主性

📋 核心要点

  1. 现有的生成性AI工具在视觉隐私管理方面存在挑战,尤其是盲人和低视力者在使用时面临的隐私风险。
  2. 通过访谈研究,本文提出了一系列设计偏好,旨在平衡隐私、效率和情感自主性,提升用户体验。
  3. 研究结果显示,用户在多个场景中对隐私风险的认知影响了他们对生成性AI工具的使用方式和设计需求。

📝 摘要(中文)

盲人和低视力(BLV)个体利用生成性AI工具来解读和管理日常生活中的视觉内容。尽管这些工具可以增强视觉内容的可及性,从而提高用户的独立性,但也带来了复杂的视觉隐私挑战。本文通过对21名参与者的访谈研究,探讨了BLV个体的当前实践和未来设计偏好。研究发现,用户在自我呈现、室内/室外空间隐私、社交分享和处理专业内容等六个关键场景中考虑隐私风险,并提出了包括设备内处理、零保留保证、敏感内容编辑、隐私意识外观指示器和多模态触觉交互方法等设计偏好。最后,本文提出了可行的设计建议,以支持用户中心的视觉隐私管理。

🔬 方法详解

问题定义:本文旨在解决盲人和低视力者在使用生成性AI工具时面临的视觉隐私管理问题。现有方法未能充分考虑用户的隐私需求和情感因素,导致用户在使用过程中感到不安。

核心思路:论文的核心思路是通过用户访谈了解BLV个体的隐私管理需求,并基于这些需求提出相应的设计偏好,以增强用户的隐私保护和使用体验。

技术框架:研究采用定性访谈的方法,收集21名BLV个体的使用经验和隐私管理策略,分析其在不同场景下的需求和偏好。主要模块包括用户访谈、数据分析和设计建议。

关键创新:本文的创新点在于首次系统性地探讨了BLV个体在使用生成性AI工具时的隐私管理需求,提出了以用户为中心的设计建议,强调了隐私、效率和情感自主性的平衡。

关键设计:设计中考虑了设备内处理、零保留保证、敏感内容编辑等关键参数,确保用户在使用生成性AI工具时能够有效管理其视觉隐私。

📊 实验亮点

研究结果表明,用户在六个关键场景中识别并管理隐私风险,提出的设计偏好如设备内处理和零保留保证得到了积极反馈。这些设计建议有助于提升用户的隐私保护意识和使用体验,推动生成性AI工具的优化。

🎯 应用场景

该研究的潜在应用领域包括辅助技术、无障碍设计和隐私保护工具,能够为盲人和低视力者提供更安全、可靠的视觉内容管理方案。未来,随着生成性AI技术的不断发展,本文的设计建议可能会影响相关产品的开发和用户体验的提升。

📄 摘要(原文)

Blind and low vision (BLV) individuals use Generative AI (GenAI) tools to interpret and manage visual content in their daily lives. While such tools can enhance the accessibility of visual content and so enable greater user independence, they also introduce complex challenges around visual privacy. In this paper, we investigate the current practices and future design preferences of blind and low vision individuals through an interview study with 21 participants. Our findings reveal a range of current practices with GenAI that balance privacy, efficiency, and emotional agency, with users accounting for privacy risks across six key scenarios, such as self-presentation, indoor/outdoor spatial privacy, social sharing, and handling professional content. Our findings reveal design preferences, including on-device processing, zero-retention guarantees, sensitive content redaction, privacy-aware appearance indicators, and multimodal tactile mirrored interaction methods. We conclude with actionable design recommendations to support user-centered visual privacy through GenAI, expanding the notion of privacy and responsible handling of others data.