Cinepro: Robust Training of Foundation Models for Cancer Detection in Prostate Ultrasound Cineloops

📄 arXiv: 2501.12331v1 📥 PDF

作者: Mohamed Harmanani, Amoon Jamzad, Minh Nguyen Nhat To, Paul F. R. Wilson, Zhuoxin Guo, Fahimeh Fooladgar, Samira Sojoudi, Mahdi Gilany, Silvia Chang, Peter Black, Michael Leveridge, Robert Siemens, Purang Abolmaesumi, Parvin Mousavi

分类: eess.IV, cs.CV, cs.LG, q-bio.TO

发布日期: 2025-01-21

备注: accepted to IEEE ISBI 2025

期刊: 2025 IEEE 22nd International Symposium on Biomedical Imaging (ISBI)

DOI: 10.1109/ISBI60581.2025.10981222


💡 一句话要点

Cinepro:通过稳健训练提升前列腺超声电影环中癌症检测的基础模型性能

🎯 匹配领域: 支柱七:动作重定向 (Motion Retargeting) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 前列腺癌检测 超声影像 深度学习 基础模型 稳健训练 标签噪声 时序数据增强

📋 核心要点

  1. 前列腺超声图像缺乏像素级标注,导致深度学习模型训练时存在标签噪声,限制了模型性能。
  2. Cinepro框架通过将病理报告的癌症组织比例融入损失函数,并利用时序数据进行稳健增强,从而解决标签噪声问题。
  3. Cinepro在多中心数据集上取得了显著的性能提升,AUROC达到77.1%,平衡准确率达到83.8%,超越现有方法。

📝 摘要(中文)

利用深度学习(DL)模型进行前列腺癌(PCa)检测显示出增强活检期间实时指导的潜力。然而,前列腺超声图像缺乏像素级癌症注释,引入了标签噪声。目前的方法通常侧重于有限的感兴趣区域(ROIs),忽略了准确诊断所需的解剖学背景。基础模型可以通过分析整个图像来捕获全局空间关系,从而克服这一限制;然而,它们仍然面临着超声数据中与粗略病理注释相关的弱标签带来的挑战。我们引入了Cinepro,这是一个新颖的框架,它增强了基础模型在超声电影环中定位PCa的能力。Cinepro通过将活检核心中病理报告的癌症组织比例整合到其损失函数中来适应稳健训练,以解决标签噪声,从而提供更细致的监督。此外,它利用跨多个帧的时间数据来应用稳健的增强,从而增强模型学习稳定癌症相关特征的能力。Cinepro在多中心前列腺超声数据集上表现出优异的性能,实现了77.1%的AUROC和83.8%的平衡准确率,超过了当前的基准。这些发现强调了Cinepro在推进用于弱标记超声数据的基础模型方面的前景。

🔬 方法详解

问题定义:论文旨在解决前列腺超声电影环中前列腺癌检测问题。现有方法主要依赖于有限的感兴趣区域(ROI),忽略了全局解剖信息,并且由于超声图像缺乏像素级标注,存在严重的标签噪声问题,导致模型泛化能力不足。

核心思路:Cinepro的核心思路是利用稳健训练方法,通过结合病理报告的癌症组织比例信息来缓解标签噪声的影响,并利用电影环的时序信息进行数据增强,从而提高模型对癌症相关特征的学习能力。这样可以使模型更加关注真正与癌症相关的区域,并减少噪声标签的干扰。

技术框架:Cinepro框架主要包含数据预处理、模型训练和评估三个阶段。数据预处理阶段包括超声电影环的标准化和裁剪。模型训练阶段,Cinepro使用预训练的基础模型(具体模型类型未知)作为骨干网络,并引入了基于癌症组织比例的加权损失函数和时序数据增强策略。评估阶段,使用AUROC和平衡准确率等指标来评估模型性能。

关键创新:Cinepro的关键创新在于:1) 提出了基于癌症组织比例的加权损失函数,能够更准确地反映样本的癌症程度,从而缓解标签噪声的影响。2) 利用电影环的时序信息,设计了稳健的数据增强策略,增强了模型对不同帧之间癌症相关特征的鲁棒性。

关键设计:关于损失函数,具体形式未知,但其核心思想是根据病理报告的癌症组织比例对损失进行加权,比例越高,损失权重越大。关于数据增强,具体增强方法未知,但其目标是利用电影环的时序信息,例如对相邻帧进行随机变换,以增强模型对癌症相关特征的鲁棒性。网络结构使用了预训练的基础模型,具体模型结构未知。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

Cinepro在多中心前列腺超声数据集上取得了显著的性能提升,AUROC达到77.1%,平衡准确率达到83.8%,超过了当前最佳基线方法。这表明Cinepro在解决弱标签和标签噪声问题方面具有显著优势,能够有效提高前列腺癌检测的准确性。

🎯 应用场景

Cinepro具有广阔的应用前景,可用于辅助医生进行前列腺癌的早期诊断和活检引导。通过提高诊断准确率,减少不必要的活检,并改善患者的治疗效果。未来,该技术可以推广到其他医学影像领域,例如乳腺超声、肝脏超声等,为更多疾病的诊断提供支持。

📄 摘要(原文)

Prostate cancer (PCa) detection using deep learning (DL) models has shown potential for enhancing real-time guidance during biopsies. However, prostate ultrasound images lack pixel-level cancer annotations, introducing label noise. Current approaches often focus on limited regions of interest (ROIs), disregarding anatomical context necessary for accurate diagnosis. Foundation models can overcome this limitation by analyzing entire images to capture global spatial relationships; however, they still encounter challenges stemming from the weak labels associated with coarse pathology annotations in ultrasound data. We introduce Cinepro, a novel framework that strengthens foundation models' ability to localize PCa in ultrasound cineloops. Cinepro adapts robust training by integrating the proportion of cancer tissue reported by pathology in a biopsy core into its loss function to address label noise, providing a more nuanced supervision. Additionally, it leverages temporal data across multiple frames to apply robust augmentations, enhancing the model's ability to learn stable cancer-related features. Cinepro demonstrates superior performance on a multi-center prostate ultrasound dataset, achieving an AUROC of 77.1% and a balanced accuracy of 83.8%, surpassing current benchmarks. These findings underscore Cinepro's promise in advancing foundation models for weakly labeled ultrasound data.