Who Benefits from AI Explanations? Towards Accessible and Interpretable Systems

📄 arXiv: 2508.10806v1 📥 PDF

作者: Maria J. P. Peixoto, Akriti Pandey, Ahsan Zaman, Peter R. Lewis

分类: cs.AI

发布日期: 2025-08-14

备注: Paper accepted for the IJCAI 2025 Workshop on Explainable Artificial Intelligence (XAI): https://sites.google.com/view/xai2025/proceedings


💡 一句话要点

针对视觉障碍用户,研究可访问且可解释的AI系统设计方法

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 可解释AI XAI 可访问性 视觉障碍 包容性设计

📋 核心要点

  1. 现有XAI技术评估很少考虑残疾用户,特别是视觉障碍用户,且过度依赖视觉呈现方式。
  2. 提出一种四步方法论,包含AI系统分类、用户角色定义、原型设计与实现、可访问性评估,以实现包容性XAI设计。
  3. 初步实验表明,简化的解释比详细的解释更易于非视觉用户理解,多模态呈现对于公平的可解释性至关重要。

📝 摘要(中文)

随着人工智能系统越来越多地被部署到关键领域以支持决策,可解释性已成为增强这些输出的可理解性并使用户能够做出更明智和有意识选择的一种手段。然而,尽管人们对可解释人工智能(XAI)的可用性越来越感兴趣,但这些方法的可访问性,特别是对于有视觉障碍的用户而言,仍未得到充分探索。本文通过双管齐下的方法研究了XAI中的可访问性差距。首先,对79项研究的文献综述表明,XAI技术的评估很少包括残疾用户,并且大多数解释都依赖于固有的视觉格式。其次,我们提出了一个由四部分组成的方法论概念验证,该验证实现了包容性XAI设计:(1)AI系统分类,(2)角色定义和情境化,(3)原型设计和实现,以及(4)专家和用户对XAI技术可访问性的评估。初步研究结果表明,与详细的解释相比,简化的解释对于非视觉用户来说更容易理解,并且需要多模态呈现才能实现更公平的可解释性。

🔬 方法详解

问题定义:现有可解释人工智能(XAI)技术在设计和评估时,往往忽略了视觉障碍用户的需求,导致他们无法有效理解和利用AI系统的决策过程。现有方法主要依赖视觉呈现,例如显著性图、决策树可视化等,对于非视觉用户而言是不可访问的。因此,如何设计可访问且易于理解的XAI系统,使视觉障碍用户也能从中受益,是本文要解决的核心问题。

核心思路:本文的核心思路是采用包容性设计原则,从一开始就将视觉障碍用户的需求纳入XAI系统的设计流程中。通过系统地分析不同类型的AI系统,定义具有代表性的用户角色,并结合多模态呈现方式,设计和评估XAI技术的可访问性。这种以用户为中心的设计方法旨在弥合XAI技术与视觉障碍用户之间的差距,提升AI系统的公平性和可用性。

技术框架:本文提出的方法论包含四个主要阶段: 1. AI系统分类:对不同类型的AI系统进行分类,例如图像识别、文本分类、推荐系统等,以便针对不同类型的系统设计相应的XAI技术。 2. 用户角色定义与情境化:定义具有代表性的视觉障碍用户角色,并描述他们在不同情境下使用AI系统的场景,以便更好地理解他们的需求和挑战。 3. 原型设计与实现:基于用户角色和情境,设计和实现XAI技术的原型,例如使用语音、触觉等非视觉方式呈现解释。 4. 可访问性评估:邀请专家和视觉障碍用户对XAI技术的原型进行评估,收集反馈并进行改进。

关键创新:本文最重要的技术创新在于其系统性的包容性XAI设计方法论。该方法论强调从一开始就将视觉障碍用户的需求纳入考虑,并通过用户角色定义、原型设计和可访问性评估等步骤,确保XAI技术能够真正为视觉障碍用户所用。与现有方法相比,本文的方法更加注重用户体验和可访问性,旨在弥合XAI技术与残疾用户之间的差距。

关键设计:在原型设计阶段,需要考虑以下关键设计: 1. 解释的简化程度:研究表明,简化的解释对于非视觉用户更易于理解,因此需要对解释进行抽象和概括,避免过于复杂的细节。 2. 多模态呈现方式:采用语音、触觉等多种非视觉方式呈现解释,以便用户能够通过不同的感官通道获取信息。 3. 交互方式:设计易于使用的交互方式,例如语音控制、手势识别等,以便用户能够方便地与XAI系统进行交互。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该研究通过初步实验发现,对于视觉障碍用户,简化的解释比详细的解释更易于理解。此外,多模态呈现(例如同时使用语音和触觉反馈)对于实现更公平的可解释性至关重要。这些发现为未来设计可访问的XAI系统提供了重要的指导。

🎯 应用场景

该研究成果可应用于各种需要向视觉障碍用户提供解释的AI系统,例如辅助驾驶、智能家居、医疗诊断等。通过提升XAI技术的可访问性,可以帮助视觉障碍用户更好地理解和信任AI系统,从而提高他们的生活质量和工作效率。未来,该研究还可以推广到其他残疾群体,为构建更加包容和公平的AI系统做出贡献。

📄 摘要(原文)

As AI systems are increasingly deployed to support decision-making in critical domains, explainability has become a means to enhance the understandability of these outputs and enable users to make more informed and conscious choices. However, despite growing interest in the usability of eXplainable AI (XAI), the accessibility of these methods, particularly for users with vision impairments, remains underexplored. This paper investigates accessibility gaps in XAI through a two-pronged approach. First, a literature review of 79 studies reveals that evaluations of XAI techniques rarely include disabled users, with most explanations relying on inherently visual formats. Second, we present a four-part methodological proof of concept that operationalizes inclusive XAI design: (1) categorization of AI systems, (2) persona definition and contextualization, (3) prototype design and implementation, and (4) expert and user assessment of XAI techniques for accessibility. Preliminary findings suggest that simplified explanations are more comprehensible for non-visual users than detailed ones, and that multimodal presentation is required for more equitable interpretability.