Designing AI for Real Users -- Accessibility Gaps in Retail AI Front-End

📄 arXiv: 2603.28196v1 📥 PDF

作者: Neha Puri, Tim Dixon

分类: cs.HC, cs.AI

发布日期: 2026-03-30

备注: Accepted at the Proceedings of the CHI 2026 Workshop: Ethics at the Front-End


💡 一句话要点

零售AI前端易用性设计缺陷:忽略残障用户体验,提出前端保障机制

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 人工智能伦理 用户界面设计 可访问性 人机交互 零售AI 包容性设计 前端保障

📋 核心要点

  1. 现有AI系统伦理审查主要集中在模型和数据,忽略了用户界面设计对不同能力用户的影响。
  2. 论文提出前端保障机制,旨在弥合AI系统设计与真实用户多样性之间的差距,提升易用性。
  3. 研究揭示零售AI前端在虚拟助手、试穿系统等方面,对残障用户存在交互假设的边缘化问题。

📝 摘要(中文)

随着人工智能嵌入面向客户的系统,伦理审查主要集中在模型、数据和治理方面。然而,人工智能如何通过用户界面设计来体验却很少受到关注。本文认为,许多人工智能前端隐含地假定了一个“理想的用户身体和思想”,当通过不同能力用户的体验来审视时,这一点变得明显且具有伦理意义。我们通过零售人工智能前端(如虚拟助手、虚拟试穿系统和超个性化推荐)来探讨这个问题。尽管这些系统具有直观和包容的框架,但它们嵌入了交互假设,从而边缘化了在视觉、听觉、运动、认知、言语和感觉方面存在差异的用户,以及数字素养和交互规范方面与年龄相关的变化。基于实践的见解,我们认为这些失败的持续存在并非主要由于技术限制,而是由于人工智能前端的设计和部署所处的商业、组织和采购环境,在这些环境中,可访问性很少是合同规定的。我们提出前端保障作为人工智能治理的实用补充,将智能和多模态的主张与真实用户的多样性结合起来。

🔬 方法详解

问题定义:零售AI前端,如虚拟助手、虚拟试穿系统和个性化推荐,在设计时往往忽略了不同能力用户的需求,例如视力、听力、运动、认知、言语和感觉障碍,以及数字素养的差异。现有方法主要关注模型和数据的伦理问题,忽视了用户界面设计层面的可访问性问题,导致部分用户被边缘化。

核心思路:论文的核心思路是强调AI前端设计的可访问性,并提出“前端保障”的概念,作为对现有AI治理的补充。通过关注用户界面设计中的交互假设,识别并解决对不同能力用户的边缘化问题,确保AI系统能够被更广泛的用户群体使用。

技术框架:论文并没有提出一个具体的技术框架,而是侧重于对现有零售AI前端的分析和评估,以及对设计流程的反思。它强调在AI前端的设计、开发和部署过程中,需要考虑不同能力用户的需求,并将可访问性作为合同要求。

关键创新:论文的关键创新在于将AI伦理的关注点从模型和数据扩展到用户界面设计,提出了“前端保障”的概念,强调了AI系统对不同能力用户的可访问性。这是一种从用户体验角度出发的伦理思考,有助于推动AI系统的包容性设计。

关键设计:论文没有涉及具体的参数设置或网络结构等技术细节。其重点在于设计理念和流程的改进,例如,在设计虚拟试穿系统时,需要考虑视力障碍用户的需求,提供语音描述或触觉反馈;在设计虚拟助手时,需要考虑听力障碍用户的需求,提供文字转录或手语支持。

📊 实验亮点

论文通过分析零售AI前端的实际案例,揭示了现有系统对不同能力用户的边缘化问题。研究强调,即使系统表面上看起来直观和包容,但其内部的交互假设仍然可能对特定用户群体造成障碍。研究结果表明,可访问性问题并非主要源于技术限制,而是与商业、组织和采购环境有关。

🎯 应用场景

该研究成果可应用于各种人机交互系统设计,尤其是在零售、医疗、教育等领域。通过提升AI前端的可访问性,可以帮助残障人士更好地融入社会,享受科技带来的便利。未来,该研究可以推动相关行业制定更完善的AI设计标准,促进包容性AI的发展。

📄 摘要(原文)

As AI becomes embedded in customer-facing systems, ethical scrutiny has largely focused on models, data, and governance. Far less attention has been paid to how AI is experienced through user-facing design. This commentary argues that many AI front-ends implicitly assume an 'ideal user body and mind', and that this becomes visible and ethically consequential when examined through the experiences of differently abled users. We explore this through retail AI front-ends for customer engagement - i.e., virtual assistants, virtual try-on systems, and hyper-personalised recommendations. Despite intuitive and inclusive framing, these systems embed interaction assumptions that marginalise users with vision, hearing, motor, cognitive, speech and sensory differences, as well as age-related variation in digital literacy and interaction norms. Drawing on practice-led insights, we argue that these failures persist not primarily due to technical limits, but due to the commercial, organisational, and procurement contexts in which AI front-ends are designed and deployed, where accessibility is rarely contractual. We propose front-end assurance as a practical complement to AI governance, aligning claims of intelligence and multimodality with the diversity of real users.