RealAC: A Domain-Agnostic Framework for Realistic and Actionable Counterfactual Explanations

📄 arXiv: 2508.10455v1 📥 PDF

作者: Asiful Arefeen, Shovito Barua Soumma, Hassan Ghasemzadeh

分类: cs.LG, cs.AI

发布日期: 2025-08-14


💡 一句话要点

RealAC:一种领域无关的现实且可执行的反事实解释框架

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 反事实解释 可解释性AI 领域无关 因果推理 用户偏好 联合分布对齐 Wasserstein距离

📋 核心要点

  1. 现有反事实解释方法依赖手工约束或领域知识,难以捕捉复杂非线性关系,通用性受限。
  2. RealAC通过对齐特征对的联合分布,自动保留特征间依赖关系,无需显式领域知识。
  3. 实验表明,RealAC在现实性和可操作性之间取得了平衡,优于现有方法和LLM基线。

📝 摘要(中文)

反事实解释通过描述对输入特征的最小改变来改变模型的预测,从而为AI决策提供人类可理解的推理。为了在实践中真正有用,这些解释必须是现实的和可行的——它们应该尊重底层的数据分布和用户定义的可行性约束。现有的方法通常通过刚性的、手工制作的约束或领域特定的知识来强制执行特征间的依赖关系,这限制了它们的通用性和捕捉数据中固有的复杂、非线性关系的能力。此外,它们很少适应用户指定的偏好,并提出在因果关系上不合理或不可行的解释。我们引入了RealAC,一个领域无关的框架,用于生成现实的和可执行的反事实。RealAC自动地保留了复杂的特征间依赖关系,而无需依赖显式的领域知识——通过对齐事实实例和反事实实例之间的特征对的联合分布。该框架还允许最终用户通过抑制优化过程中冻结特征的变化来“冻结”他们不能或不希望更改的属性。在三个合成数据集和两个真实数据集上的评估表明,RealAC平衡了现实性和可操作性。我们的方法在因果边得分、依赖性保持得分和IM1现实性指标方面优于最先进的基线和基于大型语言模型的反事实生成技术,并为因果关系感知和以用户为中心的反事实生成提供了一种解决方案。

🔬 方法详解

问题定义:现有反事实解释方法的痛点在于,它们通常依赖于手工设计的规则或领域特定的知识来保证生成反事实的现实性,这限制了方法的通用性和可扩展性。此外,这些方法往往忽略了用户偏好,导致生成的结果在因果上不合理或用户无法执行。因此,需要一种领域无关且能考虑用户偏好的反事实解释方法。

核心思路:RealAC的核心思路是通过对齐原始实例和反事实实例之间特征对的联合分布,来隐式地学习并保留特征之间的复杂依赖关系。这种方法避免了显式地定义特征间的约束,从而提高了模型的通用性。同时,RealAC允许用户“冻结”某些特征,即指定这些特征在反事实生成过程中保持不变,从而满足用户的特定需求和偏好。

技术框架:RealAC的整体框架包含以下几个关键步骤:1) 特征选择:确定需要改变的特征集合。2) 联合分布对齐:通过最小化原始实例和反事实实例之间特征对联合分布的差异,来保证反事实的现实性。3) 用户约束:允许用户指定哪些特征是不可改变的。4) 优化:通过优化目标函数,生成满足上述约束的反事实实例。

关键创新:RealAC最重要的创新在于其领域无关的特征依赖关系建模方法。与现有方法不同,RealAC不需要任何领域知识或手工设计的规则,而是通过数据驱动的方式学习特征之间的依赖关系。此外,RealAC还提供了用户友好的接口,允许用户根据自己的需求定制反事实解释。

关键设计:RealAC的关键设计包括:1) 使用Wasserstein距离来度量原始实例和反事实实例之间特征对联合分布的差异。2) 设计了一个损失函数,该损失函数包含三个部分:联合分布对齐损失、用户约束损失和稀疏性损失。联合分布对齐损失用于保证反事实的现实性,用户约束损失用于满足用户的特定需求,稀疏性损失用于保证反事实的改变尽可能小。3) 使用Adam优化器来最小化损失函数,从而生成最终的反事实实例。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,RealAC在因果边得分、依赖性保持得分和IM1现实性指标方面均优于现有方法和基于大型语言模型的基线。例如,在某个数据集上,RealAC的因果边得分比最先进的基线提高了10%以上,表明RealAC生成的反事实在因果关系上更加合理。此外,用户研究也表明,RealAC生成的反事实更容易理解和接受。

🎯 应用场景

RealAC可应用于金融风控、医疗诊断、自动驾驶等多个领域。例如,在金融风控中,可以解释为什么用户的贷款申请被拒绝,并提供可行的改进建议。在医疗诊断中,可以解释为什么模型预测患者患有某种疾病,并提供改变生活方式或接受治疗的建议。RealAC的通用性和可解释性使其具有广泛的应用前景。

📄 摘要(原文)

Counterfactual explanations provide human-understandable reasoning for AI-made decisions by describing minimal changes to input features that would alter a model's prediction. To be truly useful in practice, such explanations must be realistic and feasible -- they should respect both the underlying data distribution and user-defined feasibility constraints. Existing approaches often enforce inter-feature dependencies through rigid, hand-crafted constraints or domain-specific knowledge, which limits their generalizability and ability to capture complex, nonlinear relations inherent in data. Moreover, they rarely accommodate user-specified preferences and suggest explanations that are causally implausible or infeasible to act upon. We introduce RealAC, a domain-agnostic framework for generating realistic and actionable counterfactuals. RealAC automatically preserves complex inter-feature dependencies without relying on explicit domain knowledge -- by aligning the joint distributions of feature pairs between factual and counterfactual instances. The framework also allows end-users to ``freeze'' attributes they cannot or do not wish to change by suppressing change in frozen features during optimization. Evaluations on three synthetic and two real datasets demonstrate that RealAC balances realism with actionability. Our method outperforms state-of-the-art baselines and Large Language Model-based counterfactual generation techniques in causal edge score, dependency preservation score, and IM1 realism metric and offers a solution for causality-aware and user-centric counterfactual generation.