Cross-Modal Knowledge Distillation for PET-Free Amyloid-Beta Detection from MRI

📄 arXiv: 2604.12574v1 📥 PDF

作者: Francesco Chiumento, Julia Dietlmeier, Ronan P. Killeen, Kathleen M. Curran, Noel E. O'Connor, Mingming Liu

分类: cs.CV

发布日期: 2026-04-14

备注: Accepted to CVPR Workshops 2026 (PHAROS-AIF-MIH)

🔗 代码/项目: GITHUB


💡 一句话要点

提出PET引导的跨模态知识蒸馏,实现仅MRI的阿尔茨海默病Aβ检测

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 阿尔茨海默病 淀粉样蛋白 PET成像 MRI 知识蒸馏 跨模态学习 医学影像分析

📋 核心要点

  1. 阿尔茨海默病早期诊断依赖于Aβ检测,但PET成像成本高、侵入性强,限制了其广泛应用。
  2. 论文提出PET引导的知识蒸馏框架,利用PET-MRI对齐的教师模型指导MRI学生模型学习Aβ预测。
  3. 实验表明,该方法仅使用MRI即可有效预测Aβ,在OASIS-3和ADNI数据集上分别达到0.74和0.68的AUC。

📝 摘要(中文)

检测淀粉样蛋白-β (Aβ) 阳性对于阿尔茨海默病的早期诊断至关重要,但通常需要PET成像,这既昂贵又具有侵入性,且不易普及,限制了其在人群水平筛查中的应用。为了解决这个问题,我们提出了一个PET引导的知识蒸馏框架,该框架能够仅通过MRI预测Aβ,而无需非影像临床协变量或推理时的PET。我们的方法采用基于BiomedCLIP的教师模型,该模型通过跨模态注意力和PET信息(Centiloid感知)的在线负采样进行三元组对比学习,从而学习PET-MRI对齐。然后,仅使用MRI的学生模型通过特征级和logit级蒸馏来模仿教师模型。在四种MRI对比(T1w、T2w、FLAIR、T2*)和两个独立数据集上进行评估,我们的方法展示了有效的知识转移(在OASIS-3上最佳AUC为0.74,在ADNI上为0.68),同时保持了可解释性并消除了对临床变量的需求。显著性分析证实,预测集中在解剖学相关的皮质区域,支持了无PET的Aβ筛查的临床可行性。

🔬 方法详解

问题定义:论文旨在解决阿尔茨海默病早期诊断中,依赖PET成像进行Aβ检测所带来的高成本和低可及性问题。现有方法需要PET扫描,限制了大规模筛查的应用,并且PET成像具有一定的侵入性。

核心思路:核心思路是利用知识蒸馏,将PET成像所蕴含的Aβ相关知识迁移到仅使用MRI的预测模型中。通过训练一个PET-MRI对齐的教师模型,然后让MRI学生模型模仿教师模型的输出,从而实现仅通过MRI进行Aβ预测。

技术框架:整体框架包含两个主要部分:教师模型和学生模型。教师模型是一个基于BiomedCLIP的跨模态模型,同时输入PET和MRI数据,通过跨模态注意力和三元组对比学习,学习PET和MRI之间的对齐关系。学生模型是一个仅使用MRI的模型,通过特征级和logit级蒸馏,模仿教师模型的输出。

关键创新:最重要的创新点在于利用跨模态知识蒸馏,实现了PET成像知识向MRI模型的迁移,从而避免了推理阶段对PET数据的依赖。此外,论文还使用了PET信息(Centiloid感知)的在线负采样,提高了对比学习的效率。

关键设计:教师模型采用BiomedCLIP架构,利用跨模态注意力机制融合PET和MRI特征。三元组对比学习使用PET信息指导的在线负采样策略,选择更具挑战性的负样本。学生模型通过最小化与教师模型特征和logit的差异进行训练,实现知识迁移。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法仅使用MRI即可有效预测Aβ,在OASIS-3数据集上达到0.74的AUC,在ADNI数据集上达到0.68的AUC。显著性分析表明,预测结果集中在与Aβ沉积相关的皮质区域,验证了该方法的临床可行性。该方法无需使用临床变量,进一步简化了预测流程。

🎯 应用场景

该研究成果可应用于阿尔茨海默病的大规模早期筛查,降低筛查成本和侵入性,提高筛查效率和可及性。通过仅使用MRI进行Aβ预测,可以更方便地识别高风险人群,从而尽早采取干预措施,延缓疾病进展。该方法还可推广到其他需要多模态信息融合的医学影像分析任务中。

📄 摘要(原文)

Detecting amyloid-$β$ (A$β$) positivity is crucial for early diagnosis of Alzheimer's disease but typically requires PET imaging, which is costly, invasive, and not widely accessible, limiting its use for population-level screening. We address this gap by proposing a PET-guided knowledge distillation framework that enables A$β$ prediction from MRI alone, without requiring non-imaging clinical covariates or PET at inference. Our approach employs a BiomedCLIP-based teacher model that learns PET-MRI alignment via cross-modal attention and triplet contrastive learning with PET-informed (Centiloid-aware) online negative sampling. An MRI-only student then mimics the teacher via feature-level and logit-level distillation. Evaluated across four MRI contrasts (T1w, T2w, FLAIR, T2*) and two independent datasets, our approach demonstrates effective knowledge transfer (best AUC: 0.74 on OASIS-3, 0.68 on ADNI) while maintaining interpretability and eliminating the need for clinical variables. Saliency analysis confirms that predictions focus on anatomically relevant cortical regions, supporting the clinical viability of PET-free A$β$ screening. Code is available at https://github.com/FrancescoChiumento/pet-guided-mri-amyloid-detection.