Zero-shot Multi-Contrast Brain MRI Registration by Intensity Randomizing T1-weighted MRI (LUMIR25)

📄 arXiv: 2602.06292v2 📥 PDF

作者: Hengjie Liu, Yimeng Dou, Di Xu, Xinyi Fu, Dan Ruan, Ke Sheng

分类: eess.IV, cs.CV

发布日期: 2026-02-06 (更新: 2026-02-20)

备注: Submitted to and reviewed by Learn2Reg MICCAI 2025


💡 一句话要点

提出基于强度随机化的零样本多对比度脑部MRI配准方法,提升跨域泛化性

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 脑部MRI配准 零样本学习 多对比度图像 强度随机化 领域泛化

📋 核心要点

  1. 现有方法在跨模态脑部MRI配准中泛化性不足,尤其是在零样本场景下,面临领域迁移的挑战。
  2. 通过强度随机化增强未见过的对比度,并结合多模态损失和实例特定优化,提升模型泛化能力。
  3. 实验表明,该方法在T1-T2配准任务上显著提升了准确性,无需依赖图像合成即可实现跨对比度泛化。

📝 摘要(中文)

本文介绍了我们在Learn2Reg 2025的LUMIR25任务中的提交方案,该方案在测试集上总体排名第一。今年的任务扩展自LUMIR24,侧重于领域迁移下的零样本配准(例如,高场MRI、病理脑和各种MRI对比度),而训练数据仅包含域内T1加权脑部MRI。我们首先对LUMIR24的获胜者进行细致分析,以确定单模态配准性能的主要贡献因素。我们强调了配准特定归纳偏置的重要性,包括多分辨率金字塔、逆向和组一致性、拓扑保持或微分同胚,以及基于相关的对应关系建立。为了进一步推广到不同的对比度,我们采用了三个简单但有效的策略:(i)基于模态独立邻域描述符(MIND)的多模态损失,(ii)用于未见对比度增强的强度随机化,以及(iii)推理时特征编码器上的轻量级实例特定优化(ISO)。在验证集上,所提出的方法显著提高了T1-T2配准的准确性,证明了无需依赖显式图像合成的鲁棒跨对比度泛化能力。这些结果表明,朝着配准基础模型迈出了实际一步,该模型可以利用单个训练域,同时在领域迁移中保持鲁棒性。

🔬 方法详解

问题定义:论文旨在解决零样本多对比度脑部MRI配准问题。现有方法在训练数据仅限于T1加权MRI时,难以泛化到其他对比度(如T2加权MRI)或不同领域(如高场MRI、病理脑),导致配准精度下降。现有方法通常依赖于大量标注数据或图像合成,成本高昂且效果有限。

核心思路:论文的核心思路是通过强度随机化模拟未见过的MRI对比度,从而增强模型的泛化能力。同时,结合多模态损失函数和实例特定优化,进一步提升模型在不同对比度下的配准性能。这种方法旨在利用有限的训练数据,实现对多种MRI对比度的鲁棒配准。

技术框架:整体框架包括以下几个主要步骤:1) 使用T1加权MRI数据训练配准网络;2) 在训练过程中,对输入图像进行强度随机化,模拟不同的MRI对比度;3) 使用基于MIND的多模态损失函数,鼓励网络学习模态不变的特征表示;4) 在推理阶段,对特征编码器进行轻量级的实例特定优化,进一步适应目标图像的特征分布。

关键创新:论文的关键创新在于使用强度随机化作为一种数据增强策略,有效地模拟了未见过的MRI对比度。这种方法避免了显式的图像合成,降低了计算成本,并提高了模型的泛化能力。此外,结合多模态损失函数和实例特定优化,进一步提升了配准性能。

关键设计:强度随机化通过随机改变图像的强度分布来模拟不同的MRI对比度。多模态损失函数基于模态独立邻域描述符(MIND),旨在学习模态不变的特征表示。实例特定优化通过在推理时对特征编码器进行微调,使其更好地适应目标图像的特征分布。具体参数设置和网络结构细节未在摘要中详细说明,属于未知信息。

📊 实验亮点

该方法在LUMIR25挑战赛中获得第一名,验证了其在零样本多对比度脑部MRI配准方面的优越性能。在验证集上,该方法显著提高了T1-T2配准的准确性,证明了其无需依赖显式图像合成的鲁棒跨对比度泛化能力。具体性能提升数据未知。

🎯 应用场景

该研究成果可应用于临床脑部MRI图像配准,例如在多模态图像融合、病灶定位、手术导航等领域。该方法能够提升跨模态图像配准的精度和鲁棒性,减少对标注数据的依赖,降低医疗影像分析的成本,具有重要的临床应用价值和潜力。

📄 摘要(原文)

In this paper, we present our submission to the LUMIR25 task of Learn2Reg 2025, which ranked 1st overall on the test set. Extended from LUMIR24, this year's task focuses on zero-shot registration under domain shifts (e.g., high-field MRI, pathological brains, and various MRI contrasts), while the training data comprises only in-domain T1-weighted brain MRI. We start with a meticulous analysis of LUMIR24 winners to identify the main contributors to strong monomodal registration performance. We highlight the importance of registration-specific inductive biases, including multi-resolution pyramids, inverse and group consistency, topological preservation or diffeomorphism, and correlation-based correspondence establishment. To further generalize to diverse contrasts, we employ three simple but effective strategies: (i) a multimodal loss based on the modality-independent neighborhood descriptor (MIND), (ii) intensity randomization for unseen contrast augmentation, and (iii) lightweight instance-specific optimization (ISO) on feature encoders at inference time. On the validation set, the proposed approach substantially improves T1-T2 registration accuracy, demonstrating robust cross-contrast generalization without relying on explicit image synthesis. These results suggest a practical step toward a registration foundation model that can leverage a single training domain yet remain robust across domain shifts.