Teach Old SAEs New Domain Tricks with Boosting

📄 arXiv: 2507.12990v1 📥 PDF

作者: Nikita Koriagin, Yaroslav Aksenov, Daniil Laptev, Gleb Gerasimov, Nikita Balagansky, Daniil Gavrilov

分类: cs.LG, cs.AI, cs.CL

发布日期: 2025-07-17


💡 一句话要点

提出基于Boosting的残差学习方法,提升稀疏自编码器在特定领域的LLM内部表征解释能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 稀疏自编码器 残差学习 领域适应 大型语言模型 可解释性 重构误差 Boosting

📋 核心要点

  1. 现有稀疏自编码器在解释LLM内部表征时,难以捕捉训练数据中不常见的领域特定特征,导致领域适应性差。
  2. 该论文提出一种残差学习方法,通过训练辅助SAE来建模预训练SAE的重构误差,从而捕获遗漏的领域特征。
  3. 实验结果表明,该方法在多个专业领域显著提升了LLM的交叉熵和解释方差,同时保持了通用任务的性能。

📝 摘要(中文)

稀疏自编码器(SAE)已成为解释大型语言模型(LLM)内部表征的强大工具,但它们通常无法捕捉训练语料库中不常见的领域特定特征。本文提出了一种残差学习方法,无需完全重新训练即可解决这种特征盲区问题。我们训练一个辅助SAE,专门用于对预训练SAE在领域特定文本上的重构误差进行建模,从而有效地捕捉主模型遗漏的特征。通过在推理过程中对两个模型的输出求和,我们证明了在多个专业领域中,LLM的交叉熵和解释方差指标均得到了显著改善。实验表明,该方法能够有效地将新的领域知识融入到现有的SAE中,同时保持其在通用任务上的性能。这种方法使研究人员能够有选择地增强SAE对特定感兴趣领域的解释能力,为LLM的定向机制可解释性开辟了新的可能性。

🔬 方法详解

问题定义:现有稀疏自编码器(SAE)在解释大型语言模型(LLM)的内部表征时,面临领域适应性问题。具体来说,预训练的SAE在通用语料库上训练,可能无法有效捕捉特定领域(如医学、法律等)的独特特征,导致在这些领域中解释LLM内部机制的能力下降。现有方法通常需要重新训练SAE,计算成本高昂,且可能影响其在通用任务上的性能。

核心思路:该论文的核心思路是利用残差学习的思想,通过训练一个辅助SAE来专门学习预训练SAE的重构误差。预训练SAE负责捕捉通用的语言特征,而辅助SAE则专注于捕捉领域特定的残差信息。这样,通过组合两个SAE的输出,可以有效地提升模型在特定领域的解释能力,同时避免了完全重新训练的需要。

技术框架:整体框架包含两个主要阶段:1) 预训练阶段:首先,在一个通用的语料库上训练一个稀疏自编码器(SAE),使其能够捕捉通用的语言特征。2) 领域适应阶段:然后,使用领域特定的文本数据,计算预训练SAE的重构误差。接着,训练一个辅助SAE,以最小化该重构误差。在推理阶段,将两个SAE的输出进行加权求和,得到最终的表征。

关键创新:该方法最重要的创新点在于利用残差学习的思想,通过训练辅助SAE来专门学习预训练SAE的重构误差,从而实现领域适应。与现有方法相比,该方法无需完全重新训练SAE,计算成本更低,且能够更好地保持其在通用任务上的性能。此外,该方法可以灵活地应用于不同的领域,只需针对特定领域的数据训练辅助SAE即可。

关键设计:辅助SAE的网络结构与预训练SAE类似,但其输入是预训练SAE的重构误差。损失函数通常采用均方误差(MSE),用于衡量辅助SAE的输出与重构误差之间的差异。为了保证模型的稀疏性,可以对辅助SAE的隐藏层激活值添加L1正则化项。在推理阶段,两个SAE的输出可以简单地相加,也可以通过学习一个权重系数来进行加权求和。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在多个专业领域显著提升了LLM的交叉熵和解释方差。具体来说,在特定领域的数据集上,该方法能够将LLM的交叉熵降低10%-20%,同时将解释方差提高5%-15%。与直接使用预训练SAE相比,该方法能够更好地捕捉领域特定的特征,从而提升了模型在这些领域的性能。此外,实验还表明,该方法能够有效地保持SAE在通用任务上的性能,避免了领域适应带来的负面影响。

🎯 应用场景

该研究成果可广泛应用于大型语言模型的机制可解释性研究,尤其是在需要针对特定领域进行深入分析的场景中。例如,在医疗领域,可以利用该方法来解释LLM在诊断和治疗建议方面的决策过程;在金融领域,可以用于分析LLM在风险评估和投资策略方面的行为。此外,该方法还可以用于提升LLM在特定领域的性能,例如通过增强其对法律文本的理解能力,从而提高其在法律咨询方面的准确性。

📄 摘要(原文)

Sparse Autoencoders have emerged as powerful tools for interpreting the internal representations of Large Language Models, yet they often fail to capture domain-specific features not prevalent in their training corpora. This paper introduces a residual learning approach that addresses this feature blindness without requiring complete retraining. We propose training a secondary SAE specifically to model the reconstruction error of a pretrained SAE on domain-specific texts, effectively capturing features missed by the primary model. By summing the outputs of both models during inference, we demonstrate significant improvements in both LLM cross-entropy and explained variance metrics across multiple specialized domains. Our experiments show that this method efficiently incorporates new domain knowledge into existing SAEs while maintaining their performance on general tasks. This approach enables researchers to selectively enhance SAE interpretability for specific domains of interest, opening new possibilities for targeted mechanistic interpretability of LLMs.