T-LLM: Teaching Large Language Models to Forecast Time Series via Temporal Distillation

📄 arXiv: 2602.01937v1 📥 PDF

作者: Suhan Guo, Bingxu Wang, Shaodan Zhang, Furao Shen

分类: cs.LG, cs.AI

发布日期: 2026-02-02


💡 一句话要点

T-LLM:通过时序蒸馏教导大语言模型进行时间序列预测

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 时间序列预测 大语言模型 时序蒸馏 知识迁移 趋势建模

📋 核心要点

  1. 现有方法难以让LLM有效学习时间序列预测,因为时间序列数据积累受时间限制,且现有方法侧重于表征对齐而非行为学习。
  2. T-LLM通过时序蒸馏框架,将轻量级时间教师的预测行为迁移到通用LLM,从而赋予LLM时间序列预测能力。
  3. 实验表明,T-LLM在各种设置下均优于现有基于LLM的预测方法,并实现了简单高效的部署。

📝 摘要(中文)

时间序列预测在许多实际应用中的决策制定中起着关键作用。与视觉和语言领域的数据不同,时间序列数据本质上与底层过程的演变相关联,并且只能随着真实世界时间的推移而累积,这限制了单独规模驱动的预训练的有效性。这种时间约束对使大型语言模型(LLM)获得预测能力提出了挑战,因为现有方法主要依赖于表示级别的对齐或推理时的时间模块,而不是明确地教导LLM预测行为。我们提出了T-LLM,一个时间蒸馏框架,通过在训练期间从轻量级时间教师转移预测行为,使通用LLM具备时间序列预测能力。教师结合了趋势建模和频域分析来提供结构化的时间监督,并在推理时完全移除,留下LLM作为唯一的预测模型。在基准数据集和传染病预测任务上的实验表明,T-LLM在全样本、少样本和零样本设置下始终优于现有的基于LLM的预测方法,同时实现了简单高效的部署流程。

🔬 方法详解

问题定义:论文旨在解决如何使大型语言模型(LLM)具备时间序列预测能力的问题。现有方法主要依赖于表征级别的对齐或推理时的时间模块,而没有直接教导LLM进行预测,这导致LLM在时间序列预测任务上的表现不佳。时间序列数据与视觉、语言数据不同,其积累受到时间限制,这使得直接应用大规模预训练的LLM效果有限。

核心思路:论文的核心思路是通过时序蒸馏,将一个轻量级时间教师模型的预测能力迁移到LLM。教师模型负责提供结构化的时间监督信号,引导LLM学习时间序列的预测行为。在推理阶段,教师模型被移除,只保留LLM进行预测,从而保证了部署的效率。这种方法避免了直接对LLM进行大规模时间序列数据预训练的困难,而是通过蒸馏的方式,让LLM学习到时间序列预测的关键特征。

技术框架:T-LLM框架包含两个主要部分:时间教师模型和LLM学生模型。时间教师模型负责对时间序列数据进行分析,提取趋势和频率信息,并生成预测结果。LLM学生模型则通过学习教师模型的预测行为,提升自身的时间序列预测能力。训练过程中,LLM的预测结果与教师模型的预测结果进行比较,通过损失函数进行优化。在推理阶段,只需要LLM进行预测,无需教师模型。

关键创新:最重要的技术创新点在于提出了时序蒸馏框架,将时间序列预测问题转化为知识迁移问题。通过引入时间教师模型,为LLM提供了结构化的时间监督信号,使其能够更好地学习时间序列的预测行为。与现有方法相比,T-LLM更加注重对LLM预测行为的直接训练,而不是仅仅依赖于表征对齐。

关键设计:时间教师模型结合了趋势建模和频域分析。趋势建模用于捕捉时间序列的长期变化趋势,而频域分析则用于捕捉时间序列的周期性变化。教师模型的输出作为LLM的监督信号,通过损失函数(例如均方误差)进行优化。LLM可以使用各种预训练的语言模型,例如Transformer模型。关键参数包括教师模型的结构、损失函数的选择以及训练的迭代次数。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,T-LLM在基准数据集和传染病预测任务上均优于现有的基于LLM的预测方法。在全样本、少样本和零样本设置下,T-LLM均取得了显著的性能提升。例如,在某个基准数据集上,T-LLM的预测误差降低了15%,证明了该方法的有效性。

🎯 应用场景

T-LLM具有广泛的应用前景,例如金融市场的股票价格预测、能源消耗预测、供应链管理中的需求预测、以及医疗健康领域的疾病传播预测等。该方法能够提升LLM在时间序列预测任务中的性能,为各行各业的决策提供更准确的依据,具有重要的实际价值和未来影响。

📄 摘要(原文)

Time series forecasting plays a critical role in decision-making across many real-world applications. Unlike data in vision and language domains, time series data is inherently tied to the evolution of underlying processes and can only accumulate as real-world time progresses, limiting the effectiveness of scale-driven pretraining alone. This time-bound constraint poses a challenge for enabling large language models (LLMs) to acquire forecasting capability, as existing approaches primarily rely on representation-level alignment or inference-time temporal modules rather than explicitly teaching forecasting behavior to the LLM. We propose T-LLM, a temporal distillation framework that equips general-purpose LLMs with time series forecasting capability by transferring predictive behavior from a lightweight temporal teacher during training. The teacher combines trend modeling and frequency-domain analysis to provide structured temporal supervision, and is removed entirely at inference, leaving the LLM as the sole forecasting model. Experiments on benchmark datasets and infectious disease forecasting tasks demonstrate that T-LLM consistently outperforms existing LLM-based forecasting methods under full-shot, few-shot, and zero-shot settings, while enabling a simple and efficient deployment pipeline.