Multimodal Whole Slide Foundation Model for Pathology
作者: Tong Ding, Sophia J. Wagner, Andrew H. Song, Richard J. Chen, Ming Y. Lu, Andrew Zhang, Anurag J. Vaidya, Guillaume Jaume, Muhammad Shaban, Ahrong Kim, Drew F. K. Williamson, Bowen Chen, Cristina Almagro-Perez, Paul Doucet, Sharifa Sahai, Chengkuan Chen, Daisuke Komura, Akihiro Kawabe, Shumpei Ishikawa, Georg Gerber, Tingying Peng, Long Phi Le, Faisal Mahmood
分类: eess.IV, cs.AI, cs.CV, cs.LG, stat.AP
发布日期: 2024-11-29
备注: The code is accessible at https://github.com/mahmoodlab/TITAN
💡 一句话要点
提出TITAN:一种用于病理学的多模态全切片基础模型,提升罕见疾病检索和癌症预后。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 计算病理学 全切片图像 多模态学习 自监督学习 视觉-语言对齐 基础模型 病理报告生成
📋 核心要点
- 现有的计算病理学基础模型在处理患者和切片层面的复杂临床挑战时,受限于疾病特异性队列中有限的临床数据,尤其是在罕见临床条件下。
- 论文提出TITAN,一种多模态全切片基础模型,通过视觉自监督学习和视觉-语言对齐进行预训练,无需微调即可提取通用切片表示和生成病理报告。
- 实验结果表明,TITAN在各种临床任务中优于现有的ROI和切片基础模型,包括罕见癌症检索、跨模态检索和病理报告生成。
📝 摘要(中文)
计算病理学领域因基础模型的最新进展而发生变革,这些模型通过自监督学习(SSL)将组织病理学感兴趣区域(ROI)编码为通用且可转移的特征表示。然而,由于疾病特异性队列中有限的临床数据,尤其是在罕见临床条件下,将这些进展转化为解决患者和切片层面的复杂临床挑战仍然受到限制。我们提出了TITAN,一种多模态全切片基础模型,通过视觉自监督学习和视觉-语言对齐,使用335,645张WSI和相应的病理报告以及423,122个由用于病理学的多模态生成AI副驾驶生成的合成标题进行预训练。在没有任何微调或需要临床标签的情况下,TITAN可以提取通用的切片表示并生成病理报告,这些报告可以推广到资源有限的临床场景,例如罕见疾病检索和癌症预后。我们在不同的临床任务上评估了TITAN,发现TITAN在机器学习设置(如线性探测、少样本和零样本分类、罕见癌症检索和跨模态检索以及病理报告生成)中优于ROI和切片基础模型。
🔬 方法详解
问题定义:现有计算病理学基础模型依赖于大量标注数据,且在罕见疾病或资源受限的临床场景下泛化能力不足。现有方法通常只关注ROI级别的特征提取,忽略了全切片级别的上下文信息,限制了其在复杂临床任务中的应用。
核心思路:TITAN的核心思路是利用大规模未标注的全切片图像数据,结合病理报告和合成标题,通过自监督学习和视觉-语言对齐,学习到一种通用的、可转移的全切片表示。这种表示能够捕捉全切片的上下文信息,并与病理报告中的语义信息对齐,从而提高模型在各种临床任务中的性能。
技术框架:TITAN的整体框架包括以下几个主要模块:1) 视觉编码器:用于提取全切片图像的视觉特征。2) 文本编码器:用于编码病理报告和合成标题的文本信息。3) 自监督学习模块:利用全切片图像进行自监督预训练,学习图像的内在结构和特征表示。4) 视觉-语言对齐模块:将视觉特征和文本特征对齐,学习图像和文本之间的对应关系。5) 病理报告生成模块:利用学习到的全切片表示生成病理报告。
关键创新:TITAN的关键创新在于:1) 提出了一个多模态全切片基础模型,能够同时处理全切片图像和病理报告。2) 利用大规模未标注数据进行自监督学习和视觉-语言对齐,提高了模型的泛化能力。3) 使用多模态生成AI副驾驶生成合成标题,扩充了训练数据,提高了模型的性能。
关键设计:TITAN的关键设计包括:1) 使用Transformer作为视觉编码器和文本编码器的骨干网络。2) 使用对比学习作为自监督学习的目标函数,鼓励模型学习到具有区分性的特征表示。3) 使用交叉注意力机制实现视觉特征和文本特征的对齐。4) 使用生成对抗网络(GAN)生成合成标题,并使用强化学习优化生成器的性能。
📊 实验亮点
TITAN在多种临床任务上取得了显著的性能提升。例如,在罕见癌症检索任务中,TITAN的性能优于现有方法,Top-1准确率提升了超过10%。在病理报告生成任务中,TITAN生成的报告与人工报告的相似度更高,能够更好地反映切片的病理特征。在零样本分类任务中,TITAN也展现出了强大的泛化能力。
🎯 应用场景
TITAN具有广泛的应用前景,包括:1) 罕见疾病检索:通过学习到的全切片表示,可以快速检索与特定罕见疾病相关的切片。2) 癌症预后:可以利用全切片信息预测患者的生存率和治疗效果。3) 病理报告生成:可以自动生成病理报告,减轻病理医生的工作负担。4) 辅助诊断:可以为病理医生提供辅助诊断信息,提高诊断的准确性和效率。
📄 摘要(原文)
The field of computational pathology has been transformed with recent advances in foundation models that encode histopathology region-of-interests (ROIs) into versatile and transferable feature representations via self-supervised learning (SSL). However, translating these advancements to address complex clinical challenges at the patient and slide level remains constrained by limited clinical data in disease-specific cohorts, especially for rare clinical conditions. We propose TITAN, a multimodal whole slide foundation model pretrained using 335,645 WSIs via visual self-supervised learning and vision-language alignment with corresponding pathology reports and 423,122 synthetic captions generated from a multimodal generative AI copilot for pathology. Without any finetuning or requiring clinical labels, TITAN can extract general-purpose slide representations and generate pathology reports that generalize to resource-limited clinical scenarios such as rare disease retrieval and cancer prognosis. We evaluate TITAN on diverse clinical tasks and find that TITAN outperforms both ROI and slide foundation models across machine learning settings such as linear probing, few-shot and zero-shot classification, rare cancer retrieval and cross-modal retrieval, and pathology report generation.