Training-Free Time Series Classification via In-Context Reasoning with LLM Agents
作者: Songyuan Sui, Zihang Xu, Yu-Neng Chuang, Kwei-Herng Lai, Xia Hu
分类: cs.AI
发布日期: 2025-10-07
备注: 8 pages main content, 12 pages total including appendix, 1 figure
🔗 代码/项目: GITHUB
💡 一句话要点
提出FETA:基于LLM Agent上下文推理的免训练时间序列分类框架
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 时间序列分类 大型语言模型 上下文学习 免训练学习 多Agent系统
📋 核心要点
- 现有时间序列分类方法依赖大量标注数据进行训练,成本高昂且泛化性差,难以适应数据稀缺场景。
- FETA框架利用LLM的推理能力,通过检索相似带标签示例进行上下文学习,无需训练即可进行时间序列分类。
- 实验表明,FETA在多个数据集上超越了已训练的基线方法,验证了其在免训练场景下的有效性。
📝 摘要(中文)
时间序列分类(TSC)应用广泛,但标注数据稀缺,导致特定任务训练成本高且缺乏灵活性。最近,面向推理的大型语言模型(LLM)在理解时间模式方面展现出潜力,但纯粹的零样本使用效果欠佳。我们提出了FETA,一个多Agent框架,用于基于示例上下文推理的免训练TSC。FETA将多元时间序列分解为通道级子问题,为每个通道检索少量结构相似的带标签示例,并利用推理LLM将查询与这些示例进行比较,生成具有自评估置信度的通道级标签;然后,置信度加权聚合器融合所有通道决策。这种设计无需预训练或微调,通过剪枝不相关通道和控制输入长度来提高效率,并通过示例 grounding 和置信度估计来增强可解释性。在九个具有挑战性的UEA数据集上,FETA在完全免训练的设置下实现了强大的准确性,超过了多个经过训练的基线。这些结果表明,多Agent上下文推理框架可以将LLM转换为有竞争力的、即插即用的TSC求解器,而无需任何参数训练。
🔬 方法详解
问题定义:论文旨在解决时间序列分类任务中,缺乏标注数据导致模型训练困难的问题。现有方法通常需要大量标注数据进行训练,这在许多实际应用中是不可行的,并且训练好的模型难以泛化到新的数据集上。因此,如何在零样本或少样本情况下进行有效的时间序列分类是一个重要的挑战。
核心思路:论文的核心思路是利用大型语言模型(LLM)的上下文学习能力,通过提供少量相似的带标签示例,引导LLM进行推理,从而实现免训练的时间序列分类。这种方法避免了对特定数据集的训练,提高了模型的泛化能力和适应性。
技术框架:FETA框架包含以下几个主要模块:1) 通道分解:将多元时间序列分解为多个单变量时间序列通道。2) 示例检索:对于每个通道,从带标签的数据集中检索结构相似的示例。3) LLM推理:利用LLM比较查询通道与检索到的示例,生成通道级别的标签和置信度。4) 置信度加权聚合:根据通道的置信度,对所有通道的预测结果进行加权聚合,得到最终的分类结果。
关键创新:该论文的关键创新在于提出了一个多Agent框架,将时间序列分类问题分解为多个子问题,并利用LLM的上下文学习能力进行推理。这种方法无需训练,并且能够有效地利用LLM的知识和推理能力。此外,通过置信度加权聚合,可以提高分类的准确性和鲁棒性。
关键设计:在示例检索阶段,使用了基于结构相似性的检索方法,例如动态时间规整(DTW)。在LLM推理阶段,使用了精心设计的prompt,引导LLM进行比较和推理。置信度估计使用了LLM自身的输出概率或logits。聚合阶段使用了加权平均,权重为LLM输出的置信度。
🖼️ 关键图片
📊 实验亮点
FETA在九个UEA数据集上进行了评估,在完全免训练的设置下,FETA取得了显著的成果,超越了多个已训练的基线方法。具体来说,FETA在某些数据集上取得了与监督学习方法相当甚至更好的性能,证明了其在免训练时间序列分类方面的有效性。
🎯 应用场景
该研究成果可广泛应用于各种时间序列分类场景,尤其适用于缺乏标注数据的领域,如医疗健康(疾病诊断)、金融风控(欺诈检测)、工业制造(设备故障预测)等。FETA框架的免训练特性使其能够快速部署到新的应用场景,降低了模型开发和维护成本,具有重要的实际应用价值。
📄 摘要(原文)
Time series classification (TSC) spans diverse application scenarios, yet labeled data are often scarce, making task-specific training costly and inflexible. Recent reasoning-oriented large language models (LLMs) show promise in understanding temporal patterns, but purely zero-shot usage remains suboptimal. We propose FETA, a multi-agent framework for training-free TSC via exemplar-based in-context reasoning. FETA decomposes a multivariate series into channel-wise subproblems, retrieves a few structurally similar labeled examples for each channel, and leverages a reasoning LLM to compare the query against these exemplars, producing channel-level labels with self-assessed confidences; a confidence-weighted aggregator then fuses all channel decisions. This design eliminates the need for pretraining or fine-tuning, improves efficiency by pruning irrelevant channels and controlling input length, and enhances interpretability through exemplar grounding and confidence estimation. On nine challenging UEA datasets, FETA achieves strong accuracy under a fully training-free setting, surpassing multiple trained baselines. These results demonstrate that a multi-agent in-context reasoning framework can transform LLMs into competitive, plug-and-play TSC solvers without any parameter training. The code is available at https://github.com/SongyuanSui/FETATSC.