A Novel Automatic Real-time Motion Tracking Method in MRI-guided Radiotherapy Using Enhanced Tracking-Learning-Detection Framework with Automatic Segmentation

📄 arXiv: 2411.07503v3 📥 PDF

作者: Shengqi Chen, Zilin Wang, Jianrong Dai, Shirui Qin, Ying Cao, Ruiao Zhao, Jiayun Chen, Guohua Wu, Yuan Tang

分类: eess.IV, cs.CV, cs.LG, physics.med-ph, q-bio.TO

发布日期: 2024-11-12 (更新: 2025-07-07)


💡 一句话要点

提出ETLD+ICV框架,用于MRI引导放疗中自动实时无标记运动追踪与分割

🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)

关键词: MRI引导放疗 运动追踪 图像分割 ETLD框架 Chan-Vese模型

📋 核心要点

  1. MRI引导放疗中精确的运动追踪至关重要,但现有方法在实时性和精度上存在挑战。
  2. 论文提出ETLD+ICV框架,结合增强型追踪-学习-检测框架与改进的Chan-Vese模型,实现精确追踪和分割。
  3. 实验结果表明,该方法在追踪精度和分割准确率上均优于现有方法,具有良好的临床应用前景。

📝 摘要(中文)

本研究旨在通过一种基于自动分割的增强型追踪-学习-检测(ETLD)框架,提高MRI引导放疗(MRIgRT)中的运动追踪精度。我们开发了一种新的MRIgRT运动追踪和分割方法,将ETLD框架与改进的Chan-Vese模型(ICV)相结合,命名为ETLD+ICV。ETLD框架针对实时电影MRI进行了升级,包括高级图像预处理、无参考图像质量评估、增强型中值流追踪器以及具有动态搜索区域调整的精细检测器。ICV用于精确的目标体积覆盖,利用追踪结果逐帧细化分割区域,并优化了关键参数。该方法在来自10名肝转移患者的3.5D MRI扫描上进行了测试。结果表明,在77个治疗阶段的106,000帧图像中,追踪误差小于0.8mm,在波束视角(BEV)/波束路径视角(BPV)方向上,所有受试者的精度超过99%,召回率超过98%。ETLD+ICV方法对所有受试者均实现了超过82%的Dice全局评分,证明了该方法的可扩展性和精确的目标体积覆盖。本研究成功开发了一种用于MRIgRT的自动实时无标记运动追踪方法,该方法显著优于当前方法,为提高放疗疗效提供了重要保障。

🔬 方法详解

问题定义:MRI引导放疗(MRIgRT)中,由于患者呼吸等因素引起的器官运动会影响放射治疗的精度。现有的运动追踪方法,如基于标记物的方法,具有侵入性,且难以实现实时追踪。无标记物方法虽然避免了侵入性,但在复杂场景下,追踪精度和鲁棒性仍有待提高。因此,需要一种自动、实时、高精度的无标记物运动追踪方法,以提高MRIgRT的治疗效果。

核心思路:论文的核心思路是将增强的追踪-学习-检测(ETLD)框架与改进的Chan-Vese模型(ICV)相结合,利用ETLD框架实现快速、鲁棒的运动追踪,并利用ICV模型进行精确的分割,从而实现对目标区域的精确覆盖。ETLD框架负责提供运动信息,ICV模型利用这些信息进行分割优化,两者相互促进,提高整体性能。

技术框架:该方法主要包含以下几个模块:1) 图像预处理:对MRI图像进行降噪、增强等处理,提高图像质量。2) 无参考图像质量评估:评估图像质量,筛选出高质量的图像用于追踪。3) 增强型中值流追踪器:利用改进的中值流算法进行运动追踪,并动态调整搜索区域。4) 精细检测器:对追踪结果进行检测和校正,提高追踪精度。5) 改进的Chan-Vese模型(ICV):利用追踪结果,逐帧细化分割区域,实现精确的目标体积覆盖。

关键创新:该方法的主要创新点在于:1) 将ETLD框架与ICV模型相结合,充分利用了追踪和分割的优势。2) 对ETLD框架进行了增强,包括图像预处理、无参考图像质量评估、增强型中值流追踪器和精细检测器,提高了追踪的鲁棒性和精度。3) 改进了Chan-Vese模型,使其能够更好地适应MRIgRT中的目标分割需求。

关键设计:在ETLD框架中,动态搜索区域的调整策略是关键设计之一,它能够根据目标的运动速度和方向,自适应地调整搜索区域的大小和位置,从而提高追踪的效率和精度。在ICV模型中,关键参数的优化,如权重系数和迭代次数,对分割结果的准确性至关重要。此外,损失函数的设计也需要考虑目标区域的形状、大小和纹理特征,以提高分割的鲁棒性。

📊 实验亮点

实验结果表明,该方法在77个治疗阶段的106,000帧图像中,追踪误差小于0.8mm,在波束视角(BEV)/波束路径视角(BPV)方向上,所有受试者的精度超过99%,召回率超过98%。ETLD+ICV方法对所有受试者均实现了超过82%的Dice全局评分,显著优于现有方法。

🎯 应用场景

该研究成果可应用于MRI引导的放射治疗,提高肿瘤治疗的精度和疗效。通过实时追踪肿瘤的运动,医生可以更准确地定位肿瘤,并调整放射剂量,从而减少对周围健康组织的损伤。该方法还可扩展到其他需要精确运动追踪和分割的医学影像应用,如手术导航和介入治疗。

📄 摘要(原文)

Background and Purpose: Accurate motion tracking in MRI-guided Radiotherapy (MRIgRT) is essential for effective treatment delivery. This study aimed to enhance motion tracking precision in MRIgRT through an automatic real-time markerless tracking method using an enhanced Tracking-Learning-Detection (ETLD) framework with automatic segmentation. Materials and Methods: We developed a novel MRIgRT motion tracking and segmentation method by integrating the ETLD framework with an improved Chan-Vese model (ICV), named ETLD+ICV. The ETLD framework was upgraded for real-time cine MRI, including advanced image preprocessing, no-reference image quality assessment, an enhanced median-flow tracker, and a refined detector with dynamic search region adjustments. ICV was used for precise target volume coverage, refining the segmented region frame by frame using tracking results, with key parameters optimized. The method was tested on 3.5D MRI scans from 10 patients with liver metastases. Results: Evaluation of 106,000 frames across 77 treatment fractions showed sub-millimeter tracking errors of less than 0.8mm, with over 99% precision and 98% recall for all subjects in the Beam Eye View(BEV)/Beam Path View(BPV) orientation. The ETLD+ICV method achieved a dice global score of more than 82% for all subjects, demonstrating the method's extensibility and precise target volume coverage. Conclusion: This study successfully developed an automatic real-time markerless motion tracking method for MRIgRT that significantly outperforms current methods. The novel method not only delivers exceptional precision in tracking and segmentation but also shows enhanced adaptability to clinical demands, making it an indispensable asset in improving the efficacy of radiotherapy treatments.