3D MRI-Based Alzheimer's Disease Classification Using Multi-Modal 3D CNN with Leakage-Aware Subject-Level Evaluation

📄 arXiv: 2603.17304v1 📥 PDF

作者: Md Sifat, Sania Akter, Akif Islam, Md. Ekramul Hamid, Abu Saleh Musa Miah, Najmul Hassan, Md Abdur Rahim, Jungpil Shin

分类: cs.CV

发布日期: 2026-03-18

备注: 5 tables, 6 figures, Submitted to International Conference on Power, Electronics, Communications, Computing, and Intelligent Infrastructure 2026


💡 一句话要点

提出一种基于多模态3D CNN的阿尔茨海默病MRI分类方法,提升诊断准确率。

🎯 匹配领域: 支柱七:动作重定向 (Motion Retargeting) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 阿尔茨海默病 3D CNN 多模态融合 MRI 深度学习

📋 核心要点

  1. 现有方法多基于2D切片分析,忽略了MRI三维结构信息,无法充分捕捉脑区间的空间关系。
  2. 提出一种多模态3D CNN,融合T1结构信息与灰质、白质、脑脊液概率图,进行阿尔茨海默病分类。
  3. 在OASIS 1数据集上,5折交叉验证达到72.34%的平均准确率和0.7781的ROC AUC,优于现有方法。

📝 摘要(中文)

本研究提出了一种基于多模态3D卷积神经网络的阿尔茨海默病(AD)分类方法,该方法使用原始OASIS 1 MRI体积数据。模型结合了结构T1信息以及通过FSL FAST分割获得的灰质、白质和脑脊液概率图,以捕捉互补的神经解剖信息。在临床标记的OASIS 1队列上,使用5折受试者水平交叉验证评估了所提出的方法,实现了72.34%±4.66%的平均准确率和0.7781±0.0365的ROC AUC。GradCAM可视化结果表明,该模型关注于解剖学上有意义的区域,包括与阿尔茨海默病相关的结构性变化的内侧颞叶和脑室区域。为了更好地理解数据表示和评估策略如何影响报告的性能,还在基于切片的数据集上,在切片水平和受试者水平协议下进行了额外的诊断实验。这些观察结果有助于为体积结果提供背景信息。总的来说,所提出的多模态3D框架建立了一个可重复的受试者水平基准,并突出了体积MRI分析在阿尔茨海默病分类中的潜在益处。

🔬 方法详解

问题定义:阿尔茨海默病的早期诊断对于延缓病情发展至关重要。现有的基于MRI的诊断方法通常依赖于二维切片分析,忽略了大脑三维结构中蕴含的空间信息,这限制了模型对疾病相关脑区变化的捕捉能力。因此,如何充分利用MRI的三维信息,提高阿尔茨海默病的诊断准确率是一个亟待解决的问题。

核心思路:本研究的核心思路是利用三维卷积神经网络(3D CNN)直接处理MRI体积数据,从而保留大脑的三维空间结构信息。此外,为了更全面地捕捉神经解剖信息,该方法融合了结构T1信息以及灰质、白质和脑脊液的概率图。通过多模态信息的融合,模型可以更好地学习与阿尔茨海默病相关的特征。

技术框架:该方法的技术框架主要包括以下几个步骤:1)数据预处理:对原始MRI数据进行预处理,包括配准、标准化等操作。2)多模态特征提取:利用FSL FAST分割算法提取灰质、白质和脑脊液的概率图,并与T1结构信息进行融合。3)3D CNN模型构建:构建一个3D CNN模型,用于从多模态数据中学习特征。4)分类:利用训练好的3D CNN模型对MRI数据进行分类,判断受试者是否患有阿尔茨海默病。

关键创新:该方法最重要的技术创新点在于:1)直接利用3D CNN处理MRI体积数据,保留了大脑的三维空间结构信息。2)融合了结构T1信息以及灰质、白质和脑脊液的概率图,实现了多模态信息的融合。与现有方法相比,该方法能够更全面地捕捉与阿尔茨海默病相关的特征,从而提高诊断准确率。

关键设计:在网络结构方面,具体采用了什么样的3D CNN架构(例如,多少层卷积层、池化层等)以及激活函数类型(例如,ReLU)等细节信息未知。损失函数和优化器类型未知。关于FSL FAST分割算法的具体参数设置也未知。这些细节对于复现该方法至关重要,但论文摘要中并未提及。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该研究在OASIS 1数据集上进行了实验,结果表明,所提出的多模态3D CNN方法能够有效地对阿尔茨海默病进行分类。在5折受试者水平交叉验证中,该方法实现了72.34%±4.66%的平均准确率和0.7781±0.0365的ROC AUC。GradCAM可视化结果表明,该模型关注于与阿尔茨海默病相关的脑区,验证了该方法的有效性。

🎯 应用场景

该研究成果可应用于阿尔茨海默病的早期辅助诊断,帮助医生更准确地判断患者病情,从而制定更有效的治疗方案。此外,该方法也可推广到其他神经退行性疾病的诊断研究中,具有重要的临床应用价值和科学研究意义。未来,结合更大规模的数据集和更先进的深度学习技术,有望进一步提高诊断准确率。

📄 摘要(原文)

Deep learning has become an important tool for Alzheimer's disease (AD) classification from structural MRI. Many existing studies analyze individual 2D slices extracted from MRI volumes, while clinical neuroimaging practice typically relies on the full three dimensional structure of the brain. From this perspective, volumetric analysis may better capture spatial relationships among brain regions that are relevant to disease progression. Motivated by this idea, this work proposes a multimodal 3D convolutional neural network for AD classification using raw OASIS 1 MRI volumes. The model combines structural T1 information with gray matter, white matter, and cerebrospinal fluid probability maps obtained through FSL FAST segmentation in order to capture complementary neuroanatomical information. The proposed approach is evaluated on the clinically labelled OASIS 1 cohort using 5 fold subject level cross validation, achieving a mean accuracy of 72.34% plus or minus 4.66% and a ROC AUC of 0.7781 plus or minus 0.0365. GradCAM visualizations further indicate that the model focuses on anatomically meaningful regions, including the medial temporal lobe and ventricular areas that are known to be associated with Alzheimer's related structural changes. To better understand how data representation and evaluation strategies may influence reported performance, additional diagnostic experiments were conducted on a slice based version of the dataset under both slice level and subject level protocols. These observations help provide context for the volumetric results. Overall, the proposed multimodal 3D framework establishes a reproducible subject level benchmark and highlights the potential benefits of volumetric MRI analysis for Alzheimer's disease classification.