Towards Unifying Interpretability and Control: Evaluation via Intervention

📄 arXiv: 2411.04430v2 📥 PDF

作者: Usha Bhalla, Suraj Srinivas, Asma Ghandeharioun, Himabindu Lakkaraju

分类: cs.LG

发布日期: 2024-11-07 (更新: 2025-02-10)


💡 一句话要点

提出基于干预的评估框架,统一评估和控制大语言模型的可解释性方法。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 可解释性 干预 大语言模型 评估框架 控制 一致性 编码器-解码器

📋 核心要点

  1. 现有可解释性方法通常只关注理解或控制,缺乏统一的评估标准和实际应用指导。
  2. 论文提出基于干预的评估框架,通过干预模型内部特征来评估可解释性方法控制模型行为的能力。
  3. 实验表明,现有方法干预效果不一致,基于lens的方法在简单干预中表现更好,但机械干预会损害模型一致性。

📝 摘要(中文)

随着大型语言模型复杂性和能力的增长,理解模型推理的需求日益凸显,其根本目标是控制和对齐模型。虽然已经提出了许多可解释性和引导方法作为解决方案,但它们通常是为理解或控制而设计的,很少同时解决两者。此外,缺乏标准化的应用、动机和评估指标使得评估方法的实际效用和有效性变得困难。为了解决上述问题,我们认为干预是可解释性的一个基本目标,并引入了成功标准来评估方法如何通过干预来控制模型行为。为了评估现有方法在这方面的能力,我们将四种流行的可解释性方法——稀疏自编码器、logit lens、tuned lens和探针——统一并扩展到一个抽象的编码器-解码器框架中,从而能够对可解释的特征进行干预,这些特征可以映射回潜在表示以控制模型输出。我们引入了两个新的评估指标:干预成功率和一致性-干预权衡,旨在衡量解释的准确性及其在控制模型行为中的效用。我们的研究结果表明:(1)虽然当前的方法允许干预,但它们的效果在不同的特征和模型中是不一致的;(2)基于lens的方法在实现简单、具体的干预方面优于SAE和探针;(3)机械干预通常会损害模型的一致性,其性能不如更简单的替代方案(如提示),并突出了当前可解释性方法在需要控制的应用中的一个关键缺陷。

🔬 方法详解

问题定义:现有的大语言模型可解释性方法通常是孤立地设计用于理解模型内部机制或控制模型输出,缺乏一个统一的框架来同时评估其可解释性和可控性。此外,缺乏标准化的评估指标使得比较不同方法的优劣变得困难。现有方法的痛点在于无法有效评估其在实际应用中控制模型行为的能力。

核心思路:论文的核心思路是将干预作为可解释性的一个基本目标,通过评估可解释性方法在干预模型内部特征后对模型行为的影响,来衡量其可解释性和可控性。这种方法将可解释性与控制联系起来,提供了一个更全面的评估框架。

技术框架:论文构建了一个抽象的编码器-解码器框架,统一了四种流行的可解释性方法:稀疏自编码器(SAE)、logit lens、tuned lens和探针。该框架允许对可解释的特征进行干预,并将这些干预映射回潜在表示,从而控制模型输出。主要模块包括:1) 特征提取(使用四种方法提取可解释特征);2) 干预(对提取的特征进行修改);3) 解码(将修改后的特征映射回模型输出)。

关键创新:论文的关键创新在于提出了基于干预的评估框架,以及两个新的评估指标:干预成功率和一致性-干预权衡。干预成功率衡量了干预后模型行为是否符合预期,一致性-干预权衡衡量了干预对模型整体性能的影响。与现有方法相比,该框架更关注可解释性方法在实际应用中的控制能力。

关键设计:论文设计了干预成功率(Intervention Success Rate, ISR)来衡量干预的有效性,定义为干预后模型输出符合预期结果的比例。同时,引入一致性-干预权衡(Coherence-Intervention Tradeoff)来评估干预对模型整体性能的影响,通过比较干预前后模型在其他任务上的表现来衡量。具体的技术细节包括如何选择干预的特征、如何设计干预策略以及如何量化模型的一致性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,基于lens的方法(logit lens和tuned lens)在实现简单、具体的干预方面优于稀疏自编码器(SAE)和探针。然而,机械干预往往会损害模型的一致性,其性能不如简单的提示方法。例如,在某些任务中,使用lens方法进行干预的成功率达到了80%,但机械干预导致模型在其他任务上的性能下降了20%。

🎯 应用场景

该研究成果可应用于安全关键领域,例如自动驾驶、医疗诊断等,在这些领域中,理解和控制模型的行为至关重要。通过使用该框架评估和改进可解释性方法,可以提高模型的可信度和可靠性,从而促进人工智能技术在这些领域的应用。此外,该研究还有助于开发更安全、更可控的大语言模型。

📄 摘要(原文)

With the growing complexity and capability of large language models, a need to understand model reasoning has emerged, often motivated by an underlying goal of controlling and aligning models. While numerous interpretability and steering methods have been proposed as solutions, they are typically designed either for understanding or for control, seldom addressing both. Additionally, the lack of standardized applications, motivations, and evaluation metrics makes it difficult to assess methods' practical utility and efficacy. To address the aforementioned issues, we argue that intervention is a fundamental goal of interpretability and introduce success criteria to evaluate how well methods can control model behavior through interventions. To evaluate existing methods for this ability, we unify and extend four popular interpretability methods-sparse autoencoders, logit lens, tuned lens, and probing-into an abstract encoder-decoder framework, enabling interventions on interpretable features that can be mapped back to latent representations to control model outputs. We introduce two new evaluation metrics: intervention success rate and coherence-intervention tradeoff, designed to measure the accuracy of explanations and their utility in controlling model behavior. Our findings reveal that (1) while current methods allow for intervention, their effectiveness is inconsistent across features and models, (2) lens-based methods outperform SAEs and probes in achieving simple, concrete interventions, and (3) mechanistic interventions often compromise model coherence, underperforming simpler alternatives, such as prompting, and highlighting a critical shortcoming of current interpretability approaches in applications requiring control.