Transformer Is Inherently a Causal Learner
作者: Xinyue Wang, Stephen Wang, Biwei Huang
分类: cs.LG, cs.AI
发布日期: 2026-01-09
💡 一句话要点
揭示Transformer自回归训练的因果学习能力,实现时间序列因果图发现
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 因果发现 Transformer 时间序列 自回归模型 梯度归因
📋 核心要点
- 现有因果发现算法在处理复杂时间序列数据时,面临非线性、长程依赖和非平稳性等挑战,性能受限。
- 该论文提出Transformer在自回归训练中自然编码了时延因果结构,通过梯度敏感性可直接恢复因果图。
- 实验表明,该方法在复杂时间序列数据上显著优于现有算法,尤其在数据异质性增加时,展现出更好的扩展性。
📝 摘要(中文)
本文揭示了以自回归方式训练的Transformer在其学习到的表征中自然地编码了时延因果结构。在预测多元时间序列的未来值时,Transformer输出相对于过去输入的梯度敏感性可以直接恢复潜在的因果图,而无需任何显式的因果目标或结构约束。我们在标准可识别性条件下从理论上证明了这种联系,并开发了一种使用聚合梯度归因的实用提取方法。在非线性动力学、长期依赖性和非平稳系统等具有挑战性的案例中,该方法大大超过了最先进的发现算法的性能,尤其是在数据异质性增加时,表现出随数据量和异质性增加而提高因果准确性的扩展潜力,这是传统方法所缺乏的。这种统一的观点为未来的范式奠定了基础,即因果发现通过基础模型的视角运作,而基础模型通过因果关系的视角获得可解释性和增强。
🔬 方法详解
问题定义:现有的因果发现方法在处理复杂的时间序列数据时面临诸多挑战。例如,非线性动力学、长程依赖关系以及非平稳系统都会使得传统方法难以准确地推断出潜在的因果关系。此外,当数据异质性增加时,传统方法的性能往往会下降,难以适应复杂多变的环境。因此,如何从复杂的时间序列数据中有效地发现因果关系是一个重要的研究问题。
核心思路:该论文的核心思路是利用Transformer模型在自回归训练过程中自然学习到的时间依赖关系来推断因果结构。作者发现,Transformer的输出对于过去输入的梯度敏感性能够反映潜在的因果关系。通过分析这些梯度,可以直接恢复出时间序列数据中的因果图,而无需额外的因果约束或目标函数。这种方法利用了Transformer强大的序列建模能力,能够有效地处理非线性、长程依赖等复杂情况。
技术框架:该方法主要包括以下几个阶段:1) 使用Transformer模型对多元时间序列数据进行自回归训练。2) 计算Transformer输出对于过去输入的梯度敏感性。3) 使用聚合梯度归因方法提取因果关系。具体来说,对于每个时间步,计算Transformer输出相对于所有过去输入的梯度,然后将这些梯度进行聚合,得到一个表示因果关系的矩阵。4) 对该矩阵进行处理,例如设置阈值或使用其他后处理技术,以得到最终的因果图。
关键创新:该论文最重要的技术创新在于揭示了Transformer模型在自回归训练中自然编码因果结构的能力。与现有方法相比,该方法不需要显式的因果目标或结构约束,而是直接利用Transformer学习到的表征来推断因果关系。这种方法更加简洁高效,并且能够更好地适应复杂的时间序列数据。此外,该方法还具有良好的扩展性,能够随着数据量和异质性的增加而提高因果准确性。
关键设计:在Transformer模型的选择上,可以使用标准的Transformer架构,例如GPT或BERT。关键在于使用自回归的方式进行训练,即使用过去的数据来预测未来的数据。在计算梯度敏感性时,可以使用反向传播算法。在聚合梯度归因时,可以使用不同的聚合方法,例如平均、最大值或加权平均。此外,还可以使用不同的后处理技术来提高因果图的准确性,例如设置阈值、使用骨架算法等。损失函数通常采用标准的自回归预测损失,如均方误差或交叉熵。
📊 实验亮点
实验结果表明,该方法在非线性动力学、长期依赖性和非平稳系统等复杂时间序列数据上,显著优于现有的因果发现算法。尤其是在数据异质性增加时,该方法的性能提升更为明显,展现出良好的扩展性。在某些数据集上,该方法的因果准确率比最先进的算法提高了10%以上。
🎯 应用场景
该研究成果可广泛应用于金融风险预测、智能制造过程监控、医疗健康数据分析等领域。通过准确识别时间序列数据中的因果关系,可以更好地理解系统行为,进行更有效的预测和决策,并为干预措施提供理论依据。未来,该方法有望与更多基础模型结合,推动因果发现和模型可解释性的发展。
📄 摘要(原文)
We reveal that transformers trained in an autoregressive manner naturally encode time-delayed causal structures in their learned representations. When predicting future values in multivariate time series, the gradient sensitivities of transformer outputs with respect to past inputs directly recover the underlying causal graph, without any explicit causal objectives or structural constraints. We prove this connection theoretically under standard identifiability conditions and develop a practical extraction method using aggregated gradient attributions. On challenging cases such as nonlinear dynamics, long-term dependencies, and non-stationary systems, this approach greatly surpasses the performance of state-of-the-art discovery algorithms, especially as data heterogeneity increases, exhibiting scaling potential where causal accuracy improves with data volume and heterogeneity, a property traditional methods lack. This unifying view lays the groundwork for a future paradigm where causal discovery operates through the lens of foundation models, and foundation models gain interpretability and enhancement through the lens of causality.