Large Language Models for Interpretable Mental Health Diagnosis

📄 arXiv: 2501.07653v2 📥 PDF

作者: Brian Hyeongseok Kim, Chao Wang

分类: cs.AI, cs.LO

发布日期: 2025-01-13 (更新: 2025-02-21)

备注: Accepted at AAAI 2025 Workshop on Large Language Models and Generative AI for Health (GenAI4Health)


💡 一句话要点

提出结合LLM与约束逻辑编程的心理健康诊断决策支持系统

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 心理健康诊断 大型语言模型 约束逻辑编程 临床决策支持系统 可解释性 专家知识 自然语言处理

📋 核心要点

  1. 心理健康诊断手册复杂且易出错,现有方法缺乏可解释性,对诊断准确性构成挑战。
  2. 利用LLM将诊断手册转化为逻辑程序,结合专家知识进行修正,提升诊断的准确性和可解释性。
  3. 实验表明,LLM生成的逻辑程序需要专家干预以保证诊断的准确性,并强调了数据安全的重要性。

📝 摘要(中文)

本文提出了一种用于心理健康诊断的临床决策支持系统(CDSS),它结合了大型语言模型(LLM)和约束逻辑编程(CLP)的优势。由于心理健康专业人员使用的诊断手册非常复杂,且存在诊断错误的风险,因此CDSS至关重要。该CDSS是一个软件工具,它使用LLM将诊断手册转换为逻辑程序,并使用现成的CLP引擎求解该程序,从而根据编码的规则和提供的数据查询患者的诊断结果。通过让领域专家有机会检查LLM生成的逻辑程序,并在需要时进行修改,该CDSS确保诊断不仅准确而且可解释。实验中,我们将其与两种使用LLM的基线方法进行了比较:仅使用LLM诊断患者,以及使用LLM生成的逻辑程序但未经专家检查。结果表明,虽然LLM在生成候选逻辑程序方面非常有用,但这些程序仍需要专家检查和修改,以保证与官方诊断手册的一致性。此外,直接在LLM中使用患者数据引发了伦理问题,突显了对更安全的混合方法(如我们提出的方法)的需求。

🔬 方法详解

问题定义:心理健康诊断面临的挑战在于诊断手册的复杂性以及诊断错误的潜在风险。现有方法,例如直接使用大型语言模型(LLM)进行诊断,虽然便捷,但缺乏可解释性,难以保证诊断结果的准确性和可靠性。此外,直接将患者数据输入LLM也存在伦理风险。

核心思路:本文的核心思路是结合LLM的自然语言处理能力和约束逻辑编程(CLP)的推理能力,构建一个可解释的临床决策支持系统(CDSS)。通过LLM将诊断手册转化为逻辑程序,然后利用CLP引擎进行推理,从而实现自动诊断。更重要的是,引入领域专家对LLM生成的逻辑程序进行审查和修改,确保诊断结果的准确性和可信度。

技术框架:该CDSS包含以下主要模块:1) LLM模块:负责将诊断手册(如DSM-5)转化为逻辑程序。2) 专家审查模块:领域专家对LLM生成的逻辑程序进行检查和修改,以确保其与诊断手册的一致性。3) CLP引擎:使用现成的CLP引擎,根据逻辑程序和患者数据进行推理,得出诊断结果。4) 诊断结果呈现模块:将诊断结果以清晰易懂的方式呈现给用户。

关键创新:该方法最重要的创新点在于将LLM的生成能力与专家知识相结合,构建了一个既能自动诊断又能保证可解释性的CDSS。与直接使用LLM进行诊断相比,该方法通过专家审查环节,显著提高了诊断的准确性和可靠性。此外,该方法避免了直接将患者数据输入LLM,降低了数据泄露的风险。

关键设计:LLM的选择至关重要,需要选择具有较强自然语言理解和生成能力的LLM。逻辑程序的表示方式需要能够清晰地表达诊断规则,并易于专家理解和修改。专家审查环节需要设计合理的流程和工具,以便专家能够高效地检查和修改逻辑程序。CLP引擎的选择需要考虑其推理能力和效率。

📊 实验亮点

实验结果表明,结合LLM和专家知识的CDSS在诊断准确性方面优于仅使用LLM的基线方法。具体而言,经过专家审查和修改的逻辑程序能够更准确地反映诊断手册中的规则,从而提高诊断的准确性。此外,实验还强调了专家审查环节的重要性,表明LLM生成的逻辑程序仍需要人工干预才能保证其可靠性。

🎯 应用场景

该研究成果可应用于构建智能化的心理健康诊断辅助系统,帮助临床医生提高诊断效率和准确性,减少误诊和漏诊。此外,该方法还可用于心理健康知识的普及和教育,帮助公众更好地了解心理健康问题。未来,该方法有望扩展到其他医学诊断领域,为构建更智能、更可靠的医疗决策支持系统提供新的思路。

📄 摘要(原文)

We propose a clinical decision support system (CDSS) for mental health diagnosis that combines the strengths of large language models (LLMs) and constraint logic programming (CLP). Having a CDSS is important because of the high complexity of diagnostic manuals used by mental health professionals and the danger of diagnostic errors. Our CDSS is a software tool that uses an LLM to translate diagnostic manuals to a logic program and solves the program using an off-the-shelf CLP engine to query a patient's diagnosis based on the encoded rules and provided data. By giving domain experts the opportunity to inspect the LLM-generated logic program, and making modifications when needed, our CDSS ensures that the diagnosis is not only accurate but also interpretable. We experimentally compare it with two baseline approaches of using LLMs: diagnosing patients using the LLM-only approach, and using the LLM-generated logic program but without expert inspection. The results show that, while LLMs are extremely useful in generating candidate logic programs, these programs still require expert inspection and modification to guarantee faithfulness to the official diagnostic manuals. Additionally, ethical concerns arise from the direct use of patient data in LLMs, underscoring the need for a safer hybrid approach like our proposed method.