Aspect-Oriented Summarization for Psychiatric Short-Term Readmission Prediction
作者: WonJin Yoon, Boyu Ren, Spencer Thomas, Chanhwi Kim, Guergana Savova, Mei-Hua Hall, Timothy Miller
分类: cs.CL
发布日期: 2025-02-14 (更新: 2025-11-10)
备注: Published in Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing (EMNLP 2025, Main Track)
期刊: In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, pages 28025-28042, Suzhou, China. Association for Computational Linguistics
DOI: 10.18653/v1/2025.emnlp-main.1423
💡 一句话要点
提出面向方面的摘要方法,用于提升精神病短期再入院预测性能
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 面向方面摘要 精神科再入院预测 大型语言模型 Transformer模型 医疗文本处理
📋 核心要点
- 现有方法在处理冗长复杂的精神科病历时,零样本性能不足,且信息损失严重。
- 该论文提出面向方面的摘要方法,利用不同提示词生成摘要,捕捉不同信息信号。
- 实验表明,该方法在精神科30天再入院预测任务中,显著提升了预测性能。
📝 摘要(中文)
大型语言模型(LLM)的最新进展使得自动处理冗长文档成为可能,即使没有在特定任务数据集上进行监督训练。然而,它们在复杂任务中的零样本性能与直接的信息提取任务相比仍然欠佳。一种可行的方法是首先总结文档,然后对摘要进行监督微调。但是,摘要过程不可避免地会导致一些信息丢失。本研究提出了一种处理长文档摘要的方法,旨在捕获原始文档的不同重要方面。我们假设使用不同面向方面的提示生成的LLM摘要包含不同的信息信号,并提出了衡量这些差异的方法。我们介绍了有效整合来自这些不同摘要的信号的方法,用于Transformer模型的监督训练。我们使用来自四家医院的真实世界数据,在一个高影响力的任务——精神科出院后30天再入院预测——上验证了我们的假设,并表明我们提出的方法提高了预测患者结局这一复杂任务的性能。
🔬 方法详解
问题定义:论文旨在解决精神科患者出院后30天内再入院的预测问题。现有方法在处理冗长且复杂的精神科病历时,面临着两个主要痛点:一是大型语言模型(LLM)的零样本性能不足以直接处理此类复杂任务;二是传统的摘要方法会不可避免地丢失关键信息,影响预测准确性。
核心思路:论文的核心思路是利用面向方面的摘要方法,通过不同的提示词(aspect-oriented prompts)引导LLM生成多个摘要,每个摘要侧重于原始文档的不同方面。这种方法旨在捕获原始文档中更全面的信息信号,从而弥补传统摘要方法的信息损失。论文假设不同的面向方面的摘要包含不同的信息信号,这些信号对于预测患者再入院风险至关重要。
技术框架:整体框架包括以下几个主要阶段:1) 使用不同的面向方面的提示词,利用LLM对精神科病历进行摘要;2) 衡量不同摘要之间的信息差异,例如通过计算摘要之间的相似度或使用信息论指标;3) 将来自不同摘要的信息信号整合起来,用于训练Transformer模型;4) 使用整合后的信息训练Transformer模型,进行30天再入院预测。
关键创新:论文的关键创新在于提出了面向方面的摘要方法,并将其应用于精神科再入院预测任务。与传统的单一摘要方法相比,该方法能够捕获原始文档中更全面的信息,从而提高预测准确性。此外,论文还提出了衡量不同摘要之间信息差异的方法,并设计了有效整合这些差异化信息信号的策略。
关键设计:论文的关键设计包括:1) 选择合适的面向方面的提示词,以覆盖精神科病历中与再入院风险相关的不同方面,例如患者的病史、用药情况、社会支持等;2) 设计合适的损失函数,以优化Transformer模型的训练,例如使用交叉熵损失函数或焦点损失函数;3) 探索不同的信息整合策略,例如使用注意力机制或加权平均等方法,将来自不同摘要的信息信号整合起来。
🖼️ 关键图片
📊 实验亮点
该研究在精神科30天再入院预测任务中取得了显著的性能提升。通过使用面向方面的摘要方法,模型能够捕获更全面的信息信号,从而提高了预测准确性。具体实验结果和提升幅度在论文中进行了详细描述,表明该方法在复杂医疗预测任务中具有实际应用价值。
🎯 应用场景
该研究成果可应用于医疗领域,辅助医生进行精神科患者出院后的风险评估,提前识别高风险患者,并制定个性化的干预措施,从而降低再入院率,改善患者预后。此外,该方法也可推广到其他需要处理长文本信息的医疗场景,例如疾病诊断、药物研发等。
📄 摘要(原文)
Recent progress in large language models (LLMs) has enabled the automated processing of lengthy documents even without supervised training on a task-specific dataset. Yet, their zero-shot performance in complex tasks as opposed to straightforward information extraction tasks remains suboptimal. One feasible approach for tasks with lengthy, complex input is to first summarize the document and then apply supervised fine-tuning to the summary. However, the summarization process inevitably results in some loss of information. In this study we present a method for processing the summaries of long documents aimed to capture different important aspects of the original document. We hypothesize that LLM summaries generated with different aspect-oriented prompts contain different information signals, and we propose methods to measure these differences. We introduce approaches to effectively integrate signals from these different summaries for supervised training of transformer models. We validate our hypotheses on a high-impact task -- 30-day readmission prediction from a psychiatric discharge -- using real-world data from four hospitals, and show that our proposed method increases the prediction performance for the complex task of predicting patient outcome.