An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning

📄 arXiv: 2505.19954v1 📥 PDF

作者: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe

分类: cs.LG, cs.CL

发布日期: 2025-05-26


💡 一句话要点

提出基于强化学习优化LLM推理的神经退行性痴呆可解释诊断框架

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 神经退行性痴呆 可解释AI 大型语言模型 强化学习 医学影像 诊断推理 MRI分析

📋 核心要点

  1. 神经退行性痴呆的诊断面临症状重叠和影像相似的挑战,现有深度学习方法虽准确但缺乏透明性。
  2. 论文提出将3D MRI转化为文本报告,利用强化学习优化LLM推理,生成可解释的诊断依据。
  3. 该框架在保持诊断性能的同时,提供了支持诊断结论的合理依据,提升了决策透明度。

📝 摘要(中文)

神经退行性痴呆的鉴别诊断是一项具有挑战性的临床任务,主要原因是症状表现的重叠以及结构性神经影像学中观察到的模式相似。为了提高诊断效率和准确性,已经提出了基于深度学习的方法,例如卷积神经网络和视觉Transformer,用于自动分类脑部MRI。然而,尽管这些模型具有强大的预测性能,但由于其不透明的决策过程,其临床应用受到限制。本文提出了一个框架,该框架集成了两个核心组件以增强诊断透明度。首先,我们引入了一个模块化管道,用于将3D T1加权脑部MRI转换为文本放射学报告。其次,我们探索了现代大型语言模型(LLM)在基于生成的报告协助临床医生进行额颞叶痴呆亚型、阿尔茨海默病和正常衰老之间的鉴别诊断的潜力。为了弥合预测准确性和可解释性之间的差距,我们采用强化学习来激励LLM中的诊断推理。我们的方法无需监督推理轨迹或从更大的模型中进行蒸馏,即可实现基于神经影像学发现的结构化诊断原理的出现。与回顾性地证明模型决策合理的后验可解释性方法不同,我们的框架在推理过程中生成诊断原理,从而产生因果关系明确的解释,从而告知和指导模型的决策过程。通过这样做,我们的框架在提供支持其诊断结论的原理的同时,匹配了现有深度学习方法的诊断性能。

🔬 方法详解

问题定义:神经退行性痴呆的鉴别诊断困难,现有深度学习模型(如CNN、Vision Transformer)虽然预测准确,但决策过程不透明,缺乏临床实用性。医生需要了解模型做出诊断的原因,而不仅仅是结果。

核心思路:利用大型语言模型(LLM)进行诊断推理,并使用强化学习(RL)来优化LLM的推理过程,使其能够生成可解释的诊断依据。通过将MRI图像转化为文本报告,LLM可以基于报告内容进行推理,RL则鼓励LLM生成更符合神经影像学原理的诊断解释。

技术框架:该框架包含两个主要模块:1) MRI到文本报告的转换模块:使用模块化pipeline将3D T1加权脑部MRI转换为文本放射学报告。2) 基于LLM的诊断推理模块:利用LLM基于生成的报告进行诊断,并使用强化学习优化LLM的推理过程。整体流程为:MRI图像 -> 文本报告 -> LLM诊断推理 -> 诊断结果及解释。

关键创新:该方法的主要创新在于使用强化学习来激励LLM生成可解释的诊断依据,而无需监督推理轨迹或从更大的模型中进行蒸馏。与传统的后验可解释性方法不同,该框架在推理过程中生成诊断原理,从而产生因果关系明确的解释,从而告知和指导模型的决策过程。

关键设计:具体的技术细节包括:MRI到文本报告转换模块的具体实现方式(例如,使用的具体模型和训练数据),LLM的选择(例如,使用的具体LLM模型),强化学习的奖励函数设计(如何量化诊断解释的质量),以及训练过程中的超参数设置等。这些细节在论文中应该有更详细的描述,但摘要中未提及。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该框架在提供诊断依据的同时,匹配了现有深度学习方法的诊断性能。通过强化学习优化LLM推理,无需监督推理轨迹或从更大的模型中进行蒸馏,即可实现基于神经影像学发现的结构化诊断原理的出现。这表明该方法在可解释性和准确性之间取得了良好的平衡。

🎯 应用场景

该研究成果可应用于临床辅助诊断,帮助医生更准确、更高效地诊断神经退行性痴呆。通过提供可解释的诊断依据,增强医生对AI诊断结果的信任,促进AI技术在医疗领域的应用。未来,该框架可扩展到其他疾病的诊断,并与其他医疗数据(如基因数据、临床数据)相结合,实现更全面的诊断。

📄 摘要(原文)

The differential diagnosis of neurodegenerative dementias is a challenging clinical task, mainly because of the overlap in symptom presentation and the similarity of patterns observed in structural neuroimaging. To improve diagnostic efficiency and accuracy, deep learning-based methods such as Convolutional Neural Networks and Vision Transformers have been proposed for the automatic classification of brain MRIs. However, despite their strong predictive performance, these models find limited clinical utility due to their opaque decision making. In this work, we propose a framework that integrates two core components to enhance diagnostic transparency. First, we introduce a modular pipeline for converting 3D T1-weighted brain MRIs into textual radiology reports. Second, we explore the potential of modern Large Language Models (LLMs) to assist clinicians in the differential diagnosis between Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based on the generated reports. To bridge the gap between predictive accuracy and explainability, we employ reinforcement learning to incentivize diagnostic reasoning in LLMs. Without requiring supervised reasoning traces or distillation from larger models, our approach enables the emergence of structured diagnostic rationales grounded in neuroimaging findings. Unlike post-hoc explainability methods that retrospectively justify model decisions, our framework generates diagnostic rationales as part of the inference process-producing causally grounded explanations that inform and guide the model's decision-making process. In doing so, our framework matches the diagnostic performance of existing deep learning methods while offering rationales that support its diagnostic conclusions.