StainNet: Scaling Self-Supervised Foundation Models on Immunohistochemistry and Special Stains for Computational Pathology

📄 arXiv: 2512.10326v2 📥 PDF

作者: Jiawen Li, Jiali Hu, Xitong Ling, Yongqiang Lv, Yuxuan Chen, Yizhi Wang, Tian Guan, Yifei Liu, Yonghong He

分类: cs.CV

发布日期: 2025-12-11 (更新: 2026-02-04)

备注: 26 pages, 7 figures, 10 tables

🔗 代码/项目: GITHUB


💡 一句话要点

StainNet:针对免疫组化和特殊染色的病理计算自监督预训练模型

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 病理计算 自监督学习 预训练模型 免疫组化 特殊染色 Vision Transformer 组织病理学

📋 核心要点

  1. 现有的病理学预训练模型主要基于H&E染色图像,在IHC和特殊染色图像上的应用受限。
  2. StainNet通过自监督学习,在大规模IHC和特殊染色图像上预训练ViT模型,提升特征提取能力。
  3. 实验表明,StainNet在IHC和特殊染色图像分类任务上表现出色,优于现有预训练模型。

📝 摘要(中文)

本文提出了StainNet,这是一系列基于Vision Transformer (ViT)架构的自监督预训练模型,专门用于病理图像中的免疫组化(IHC)和特殊染色。StainNet包含一个ViT-Small和一个ViT-Base模型,均采用自蒸馏自监督学习方法,在HISTAI数据库中超过140万张从20231张公开的IHC和特殊染色WSI中提取的图像块上进行训练。为了评估StainNet模型,我们在三个内部的切片级别IHC分类任务、三个内部的ROI级别特殊染色任务和两个公开的ROI级别IHC分类任务上进行了实验,证明了其强大的能力。我们还进行了消融研究,例如少比例学习和检索评估,并将StainNet模型与最近更大的PFM进行比较,以进一步突出其优势。StainNet模型权重可在https://github.com/WonderLandxD/StainNet获取。

🔬 方法详解

问题定义:现有病理学基础模型(PFMs)主要在苏木精-伊红(H&E)染色的病理图像上进行预训练。然而,免疫组织化学(IHC)和特殊染色等图像在临床实践中也很常用。因此,主要在H&E染色图像上预训练的PFM在涉及这些非H&E图像的临床应用中可能受到限制。

核心思路:本文的核心思路是利用自监督学习(SSL)方法,在大规模的IHC和特殊染色病理图像数据集上预训练视觉Transformer (ViT)模型。通过这种方式,模型可以学习到IHC和特殊染色图像的有效特征表示,从而提升在相关任务上的性能。

技术框架:StainNet包含ViT-Small和ViT-Base两种模型。训练流程包括:1) 从HISTAI数据库中提取超过140万张IHC和特殊染色图像块;2) 使用自蒸馏SSL方法在这些图像块上训练ViT模型。评估流程包括:1) 在内部和公开数据集上进行图像分类任务;2) 进行消融研究和检索评估;3) 与其他PFM进行比较。

关键创新:关键创新在于针对IHC和特殊染色图像,专门设计和训练了自监督预训练模型StainNet。与现有主要基于H&E染色图像的PFM相比,StainNet能够更好地适应IHC和特殊染色图像的特点,从而提升在相关任务上的性能。

关键设计:StainNet采用自蒸馏SSL方法进行训练,具体细节未知。模型架构基于ViT,包含ViT-Small和ViT-Base两种尺寸。训练数据集包含超过140万张图像块,来源于HISTAI数据库中20231张公开的IHC和特殊染色WSI。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

StainNet在三个内部切片级别IHC分类任务、三个内部ROI级别特殊染色任务和两个公开ROI级别IHC分类任务上进行了评估,结果表明StainNet具有强大的能力。此外,消融研究和与现有PFM的比较进一步突出了StainNet的优势,表明其在IHC和特殊染色图像上的性能优于现有模型。

🎯 应用场景

StainNet可应用于多种病理计算任务,例如辅助诊断、疾病分级、预后预测等。通过提供更准确的IHC和特殊染色图像特征,StainNet可以帮助病理学家提高诊断效率和准确性,并为个性化治疗提供支持。未来,StainNet可以扩展到更多类型的病理图像和临床任务中。

📄 摘要(原文)

Foundation models trained with self-supervised learning (SSL) on large-scale histological images have significantly accelerated the development of computational pathology. These models can serve as backbones for region-of-interest (ROI) image analysis or patch-level feature extractors in whole-slide images (WSIs) based on multiple instance learning (MIL). Existing pathology foundation models (PFMs) are typically pre-trained on Hematoxylin-Eosin (H\&E) stained pathology images. However, images such as immunohistochemistry (IHC) and special stains are also frequently used in clinical practice. PFMs pre-trained mainly on H\&E-stained images may be limited in clinical applications involving these non-H\&E images. To address this issue, we propose StainNet, a collection of self-supervised foundation models specifically trained for IHC and special stains in pathology images based on the vision transformer (ViT) architecture. StainNet contains a ViT-Small and a ViT-Base model, both of which are trained using a self-distillation SSL approach on over 1.4 million patch images extracted from 20,231 publicly available IHC and special staining WSIs in the HISTAI database. To evaluate StainNet models, we conduct experiments on three in-house slide-level IHC classification tasks, three in-house ROI-level special stain and two public ROI-level IHC classification tasks to demonstrate their strong ability. We also perform ablation studies such as few-ratio learning and retrieval evaluations, and compare StainNet models with recent larger PFMs to further highlight their strengths. The StainNet model weights are available at https://github.com/WonderLandxD/StainNet.