Leveraging Generic Time Series Foundation Models for EEG Classification

📄 arXiv: 2510.27522v1 📥 PDF

作者: Théo Gnassounou, Yessin Moakher, Shifeng Xie, Vasilii Feofanov, Ievgen Redko

分类: cs.LG, cs.AI

发布日期: 2025-10-31

期刊: NeurIPS 2025 Workshop "Recent Advances in Time Series Foundation Models Have We Reached the 'BERT Moment'?"


💡 一句话要点

利用通用时间序列基础模型进行脑电图(EEG)分类

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 脑电图分类 时间序列基础模型 迁移学习 预训练 运动想象 睡眠阶段预测

📋 核心要点

  1. 现有的脑电图分析方法缺乏通用性,难以适应不同任务和数据集,需要更强大的通用骨干网络。
  2. 本文探索了时间序列基础模型在脑电图分类中的应用,通过跨领域和合成数据预训练提升模型泛化能力。
  3. 实验表明,通用时间序列基础模型即使在非神经数据或合成数据上预训练,也能有效迁移到脑电图任务,性能优于现有方法。

📝 摘要(中文)

本文研究了时间序列分类基础模型在脑电图(EEG)任务中的应用潜力,例如运动想象分类和睡眠阶段预测。作者测试了两种预训练方案:(a)在来自多个领域的异构真实世界时间序列上进行预训练,以及(b)在纯合成数据上进行预训练。实验结果表明,这两种方案都表现出强大的性能,始终优于广泛使用的卷积基线EEGNet和最新的特定于EEG的基础模型CBraMod。这些结果表明,即使在非神经来源的数据或合成信号上进行预训练,通用时间序列基础模型也能有效地迁移到EEG。研究结果突出了利用跨领域预训练模型进行脑信号分析的前景,表明脑电图可以受益于更广泛的时间序列文献的进展。

🔬 方法详解

问题定义:论文旨在解决脑电图(EEG)分类问题,包括运动想象分类和睡眠阶段预测。现有的EEG分类方法,例如EEGNet,通常是针对特定任务设计的,泛化能力有限。此外,缺乏大规模的标注EEG数据也限制了模型的性能。CBraMod虽然是EEG-specific的基础模型,但仍有提升空间。

核心思路:论文的核心思路是利用通用时间序列基础模型,通过在大量异构时间序列数据(包括非神经数据)或合成数据上进行预训练,学习通用的时间序列表示。然后,将预训练的模型迁移到EEG分类任务中,从而提高模型的泛化能力和性能。这种方法借鉴了自然语言处理和计算机视觉领域中预训练模型的成功经验。

技术框架:整体框架包括两个主要阶段:预训练阶段和微调阶段。在预训练阶段,使用通用时间序列基础模型(具体模型未明确说明,但应为已有的时间序列分类模型),在异构真实世界时间序列数据或合成数据上进行训练。在微调阶段,将预训练的模型在目标EEG数据集上进行微调,以适应特定的EEG分类任务。

关键创新:论文的关键创新在于探索了通用时间序列基础模型在EEG分类中的应用潜力。与以往的EEG-specific模型不同,本文的方法利用了跨领域的数据进行预训练,从而提高了模型的泛化能力。此外,使用合成数据进行预训练也是一个创新点,可以缓解大规模标注EEG数据不足的问题。

关键设计:论文中没有详细说明具体的网络结构、损失函数和参数设置。但是,可以推断出,预训练阶段使用的损失函数应该是通用的时间序列分类损失函数,例如交叉熵损失函数。微调阶段使用的损失函数也应该是交叉熵损失函数,针对具体的EEG分类任务进行优化。具体的网络结构应该与所选用的时间序列基础模型有关,论文中没有明确指出。

📊 实验亮点

实验结果表明,经过异构真实世界时间序列数据或合成数据预训练的通用时间序列基础模型,在运动想象分类和睡眠阶段预测任务中,均优于EEGNet和CBraMod。这表明即使使用非神经数据或合成数据进行预训练,也能有效提升EEG分类性能,验证了跨领域迁移学习的有效性。

🎯 应用场景

该研究成果可应用于多种脑机接口(BCI)系统,例如运动功能康复、辅助设备控制和睡眠质量监测。通过利用通用时间序列基础模型,可以降低对特定领域数据的依赖,加速脑电图分析技术的开发和应用,并为个性化医疗提供更准确的诊断和治疗方案。

📄 摘要(原文)

Foundation models for time series are emerging as powerful general-purpose backbones, yet their potential for domain-specific biomedical signals such as electroencephalography (EEG) remains rather unexplored. In this work, we investigate the applicability a recently proposed time series classification foundation model, to a different EEG tasks such as motor imagery classification and sleep stage prediction. We test two pretraining regimes: (a) pretraining on heterogeneous real-world time series from multiple domains, and (b) pretraining on purely synthetic data. We find that both variants yield strong performance, consistently outperforming EEGNet, a widely used convolutional baseline, and CBraMod, the most recent EEG-specific foundation model. These results suggest that generalist time series foundation models, even when pretrained on data of non-neural origin or on synthetic signals, can transfer effectively to EEG. Our findings highlight the promise of leveraging cross-domain pretrained models for brain signal analysis, suggesting that EEG may benefit from advances in the broader time series literature.