Global Human-guided Counterfactual Explanations for Molecular Properties via Reinforcement Learning
作者: Danqing Wang, Antonis Antoniades, Kha-Dinh Luong, Edwin Zhang, Mert Kosan, Jiachen Li, Ambuj Singh, William Yang Wang, Lei Li
分类: cs.LG, q-bio.BM
发布日期: 2024-06-19
备注: Accepted by KDD 2024
🔗 代码/项目: GITHUB
💡 一句话要点
提出RLHEX模型,通过强化学习生成符合人类认知的分子性质全局反事实解释。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 反事实解释 图神经网络 强化学习 分子性质预测 全局解释 可解释性 VAE 近端策略优化
📋 核心要点
- 现有图神经网络(GNN)反事实解释方法缺乏人工标注真值,难以评估全局解释,限制了其在分子科学等领域的应用。
- RLHEX模型通过VAE生成全局解释,并使用适配器调整潜在空间,使其符合人类定义的原则,从而提高解释的可解释性。
- 实验结果表明,RLHEX在分子数据集上能够生成覆盖更广、距离更近的反事实解释,并能有效融入领域专家的知识。
📝 摘要(中文)
本文提出了一种用于分子性质预测的全局解释模型RLHEX。该模型旨在生成与人类定义的原则对齐的反事实解释,从而提高解释的可解释性,并方便领域专家进行评估。RLHEX包含一个基于VAE的图生成器,用于生成全局解释,以及一个适配器,用于调整潜在表示空间以符合人类定义的原则。该模型使用近端策略优化(PPO)进行优化。在三个分子数据集上的实验结果表明,RLHEX生成的全局解释覆盖了更多输入图(平均增加4.12%),并减少了反事实解释集与输入集之间的距离(平均减少0.47%)。RLHEX提供了一个灵活的框架,可以将不同的人工设计的原则纳入反事实解释生成过程中,使这些解释与领域专业知识对齐。代码和数据已开源。
🔬 方法详解
问题定义:论文旨在解决图神经网络在分子性质预测任务中,全局反事实解释难以评估和缺乏人工指导的问题。现有方法,特别是基于随机搜索的方法,在大规模数据集上效率低下,且生成的解释难以与人类的先验知识对齐,导致可解释性较差。
核心思路:论文的核心思路是利用强化学习,训练一个图生成器,使其能够生成符合人类定义的原则的反事实解释。通过将人类知识融入到模型的训练过程中,可以提高生成解释的可解释性和实用性。
技术框架:RLHEX模型主要包含两个模块:一个基于VAE的图生成器和一个适配器。图生成器负责生成候选的反事实解释,适配器则用于调整VAE的潜在表示空间,使其符合人类定义的原则。整个模型使用近端策略优化(PPO)算法进行训练,目标是最大化奖励函数,该奖励函数鼓励生成覆盖更多输入图、距离输入集更近的反事实解释。
关键创新:RLHEX的关键创新在于将人类定义的原则融入到反事实解释的生成过程中。通过适配器模块,模型能够学习到符合人类认知的潜在表示空间,从而生成更易于理解和评估的解释。此外,使用强化学习方法优化图生成器,可以有效地探索大规模的分子结构空间。
关键设计:VAE图生成器使用图卷积网络(GCN)作为编码器和解码器。适配器模块通常是一个简单的神经网络,用于将VAE的潜在表示映射到符合人类定义的原则的空间。PPO算法中的奖励函数包括覆盖率奖励和距离奖励,分别用于鼓励生成覆盖更多输入图和距离输入集更近的反事实解释。具体的网络结构和参数设置需要根据具体的分子数据集和人类定义的原则进行调整。
🖼️ 关键图片
📊 实验亮点
实验结果表明,RLHEX在三个分子数据集上均取得了显著的性能提升。具体而言,RLHEX生成的全局解释覆盖了平均4.12%更多的输入图,并减少了反事实解释集与输入集之间的距离平均0.47%。这些结果表明,RLHEX能够有效地生成符合人类认知的、高质量的反事实解释。
🎯 应用场景
该研究成果可应用于分子设计、药物发现等领域。通过生成符合人类认知的反事实解释,可以帮助研究人员理解分子性质与结构之间的关系,从而指导新分子的设计和优化。此外,该方法还可以推广到其他图结构数据分析任务中,例如社交网络分析、知识图谱推理等。
📄 摘要(原文)
Counterfactual explanations of Graph Neural Networks (GNNs) offer a powerful way to understand data that can naturally be represented by a graph structure. Furthermore, in many domains, it is highly desirable to derive data-driven global explanations or rules that can better explain the high-level properties of the models and data in question. However, evaluating global counterfactual explanations is hard in real-world datasets due to a lack of human-annotated ground truth, which limits their use in areas like molecular sciences. Additionally, the increasing scale of these datasets provides a challenge for random search-based methods. In this paper, we develop a novel global explanation model RLHEX for molecular property prediction. It aligns the counterfactual explanations with human-defined principles, making the explanations more interpretable and easy for experts to evaluate. RLHEX includes a VAE-based graph generator to generate global explanations and an adapter to adjust the latent representation space to human-defined principles. Optimized by Proximal Policy Optimization (PPO), the global explanations produced by RLHEX cover 4.12% more input graphs and reduce the distance between the counterfactual explanation set and the input set by 0.47% on average across three molecular datasets. RLHEX provides a flexible framework to incorporate different human-designed principles into the counterfactual explanation generation process, aligning these explanations with domain expertise. The code and data are released at https://github.com/dqwang122/RLHEX.