Automated Tinnitus Detection Through Dual-Modality Neuroimaging: EEG Microstate Analysis and Resting-State fMRI Classification Using Deep Learning

📄 arXiv: 2510.21748v1 📥 PDF

作者: Kiana Kiashemshaki, Sina Samieirad, Sarvenaz Erfani, Aryan Jalaeianbanayan, Nasibeh Asadi Isakan, Hossein Najafzadeh

分类: eess.SP, eess.SY, q-bio.NC

发布日期: 2025-10-08


💡 一句话要点

利用深度学习和多模态神经影像技术实现自动耳鸣检测

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 耳鸣检测 脑电图 功能性磁共振成像 深度学习 多模态融合

📋 核心要点

  1. 耳鸣影响了10-15%的人口,但缺乏客观的诊断生物标志物,现有诊断方法主观性强,难以准确识别。
  2. 本研究利用脑电图(EEG)和功能性磁共振成像(fMRI)数据,结合深度学习和传统机器学习方法,寻找耳鸣患者特有的神经特征。
  3. 实验结果表明,脑电微状态分析和fMRI切片分类均能有效区分耳鸣患者和健康对照组,混合模型取得了最高的分类准确率。

📝 摘要(中文)

本研究旨在通过机器学习方法,利用脑电图(EEG)和功能性磁共振成像(fMRI)数据,寻找区分耳鸣患者和健康对照组的神经生物标志物,从而实现耳鸣的客观诊断。研究分析了来自80名参与者的64通道脑电数据(40名耳鸣患者,40名对照组)和来自38名参与者的静息态fMRI数据(19名耳鸣患者,19名对照组)。脑电分析提取了跨四到七个聚类状态和五个频段的微状态特征,每个受试者产生440个特征。全局场功率信号也被转换为小波图像用于深度学习。fMRI数据使用切片式卷积神经网络和混合模型进行分析,混合模型结合了预训练架构(VGG16、ResNet50)与决策树、随机森林和SVM分类器。模型性能通过5折交叉验证进行评估,指标包括准确率、精确率、召回率、F1分数和ROC-AUC。结果表明,脑电微状态分析揭示了耳鸣患者网络动态的改变,特别是伽马波段微状态B的发生率降低(健康组:56.56,耳鸣组:43.81,p < 0.001)和alpha波段覆盖率降低。基于树的分类器实现了高达98.8%的准确率,而VGG16在小波变换后的脑电数据上,delta和alpha波段分别实现了95.4%和94.1%的准确率。fMRI分析确定了12个高性能轴向切片(>=90%准确率),其中第17个切片达到了99.0%。混合VGG16-决策树模型实现了98.95% +/- 2.94%的准确率。结论表明,脑电和fMRI提供了有效的神经生物标志物用于耳鸣分类。基于树的模型和混合模型表现出优越的性能,突出了耳鸣作为一种多网络疾病需要多模态分析。

🔬 方法详解

问题定义:本研究旨在解决耳鸣客观诊断的问题。现有耳鸣诊断主要依赖主观报告,缺乏客观的生理指标,导致诊断困难且易受个体差异影响。因此,需要开发一种基于神经影像数据的客观、自动化的耳鸣检测方法。

核心思路:研究的核心思路是利用多模态神经影像数据(EEG和fMRI),结合机器学习方法,寻找区分耳鸣患者和健康对照组的神经生物标志物。通过分析脑电微状态和fMRI静息态活动模式,提取与耳鸣相关的特征,并利用分类器进行自动诊断。多模态融合旨在提高诊断的准确性和鲁棒性。

技术框架:整体框架包括数据采集、预处理、特征提取和分类四个主要阶段。对于EEG数据,首先进行预处理,然后提取微状态特征和全局场功率(GFP)的小波变换图像。对于fMRI数据,进行预处理后,直接使用切片数据进行分析。然后,分别使用传统机器学习分类器(决策树、随机森林、SVM)和深度学习模型(CNN、VGG16、ResNet50)进行分类。最后,将深度学习模型与传统机器学习分类器进行混合,构建混合模型。

关键创新:本研究的关键创新在于:1) 结合了EEG微状态分析和fMRI切片分类,实现了多模态神经影像数据的融合;2) 将全局场功率信号转换为小波图像,并利用深度学习模型进行分析,有效提取了时频域特征;3) 提出了混合模型,结合了深度学习模型的特征提取能力和传统机器学习分类器的泛化能力。与现有方法相比,本研究更全面地利用了神经影像数据,并取得了更高的分类准确率。

关键设计:在EEG分析中,微状态聚类状态数设置为4到7,频段划分为delta、theta、alpha、beta和gamma。全局场功率信号的小波变换采用连续小波变换。在fMRI分析中,使用切片式CNN,并选择性能最佳的切片进行分析。混合模型中,VGG16和ResNet50作为特征提取器,决策树、随机森林和SVM作为分类器。所有模型均采用5折交叉验证进行评估。

📊 实验亮点

研究结果表明,基于树的分类器在脑电微状态特征上实现了高达98.8%的准确率。VGG16在小波变换后的脑电数据上,delta和alpha波段分别实现了95.4%和94.1%的准确率。fMRI分析中,第17个切片达到了99.0%的分类准确率。混合VGG16-决策树模型实现了98.95% +/- 2.94%的准确率,表明多模态融合和混合模型能够显著提高耳鸣检测的准确性。

🎯 应用场景

该研究成果可应用于耳鸣的客观诊断和分型,帮助医生更准确地评估患者的病情,制定个性化的治疗方案。此外,该方法还可以用于研究耳鸣的神经机制,为开发新的治疗方法提供理论基础。未来,该技术有望集成到临床诊断设备中,实现耳鸣的早期筛查和诊断。

📄 摘要(原文)

Objective: Tinnitus affects 10-15% of the population yet lacks objective diagnostic biomarkers. This study applied machine learning to EEG and fMRI data to identify neural signatures distinguishing tinnitus patients from healthy controls. Methods: Two datasets were analyzed: 64-channel EEG recordings from 80 participants (40 tinnitus, 40 controls) and resting-state fMRI data from 38 participants (19 tinnitus, 19 controls). EEG analysis extracted microstate features across four to seven clustering states and five frequency bands, producing 440 features per subject. Global Field Power signals were also transformed into wavelet images for deep learning. fMRI data were analyzed using slice-wise convolutional neural networks and hybrid models combining pre-trained architectures (VGG16, ResNet50) with Decision Tree, Random Forest, and SVM classifiers. Model performance was evaluated using 5-fold cross-validation based on accuracy, precision, recall, F1-score, and ROC-AUC. Results: EEG microstate analysis revealed altered network dynamics in tinnitus, particularly reduced gamma-band microstate B occurrence (healthy: 56.56 vs tinnitus: 43.81, p < 0.001) and diminished alpha coverage. Tree-based classifiers achieved up to 98.8% accuracy, while VGG16 on wavelet-transformed EEG yielded 95.4% and 94.1% accuracy for delta and alpha bands, respectively. fMRI analysis identified 12 high-performing axial slices (>=90% accuracy), with slice 17 reaching 99.0%. The hybrid VGG16-Decision Tree model achieved 98.95% +/- 2.94% accuracy. Conclusion: EEG and fMRI provided effective neural biomarkers for tinnitus classification. Tree-based and hybrid models demonstrated superior performance, highlighting tinnitus as a multi-network disorder requiring multimodal analysis.