Rethinking the Alignment of Psychotherapy Dialogue Generation with Motivational Interviewing Strategies

📄 arXiv: 2408.06527v2 📥 PDF

作者: Xin Sun, Xiao Tang, Abdallah El Ali, Zhuying Li, Pengjie Ren, Jan de Wit, Jiahuan Pei, Jos A. Bosch

分类: cs.CL, cs.AI

发布日期: 2024-08-12 (更新: 2024-12-17)


💡 一句话要点

提出基于动机访谈策略对齐的心理治疗对话生成方法,提升可控性和可解释性。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 心理治疗对话生成 动机访谈 大型语言模型 策略对齐 可控性 可解释性 人机交互

📋 核心要点

  1. 现有LLM在心理治疗对话生成中缺乏透明性,难以控制对话过程和保证治疗效果。
  2. 论文提出利用动机访谈(MI)策略来引导LLM生成对话,提升对话的可控性和可解释性。
  3. 实验结果表明,该方法能够生成与MI策略对齐的对话,为心理治疗应用提供潜在价值。

📝 摘要(中文)

大型语言模型(LLMs)在生成心理治疗对话方面展现出潜力,尤其是在动机访谈(MI)的背景下。然而,LLM输出缺乏透明性,这在心理治疗的敏感领域构成重大挑战。应用MI策略(一系列MI技巧)来生成更可控、符合治疗原则且具有可解释性的对话,提供了一种可能的解决方案。本文探讨了LLM与MI策略的对齐,首先提示LLM预测合适的策略作为推理,然后利用这些策略来指导后续的对话生成。研究旨在调查这种对齐是否能带来更可控和可解释的生成结果。通过包括自动评估和人工评估在内的多项实验,验证了MI策略在对齐心理治疗对话生成方面的有效性。研究结果表明,LLM在生成策略对齐的对话方面具有潜力,并为心理治疗环境中的实际应用指明了方向。

🔬 方法详解

问题定义:当前心理治疗对话生成方法,特别是基于大型语言模型的方法,存在缺乏透明性和可控性的问题。由于心理治疗的特殊性,对话内容需要符合特定的治疗原则,并且需要对生成过程进行解释。现有方法难以保证生成对话的治疗效果和安全性。

核心思路:论文的核心思路是将动机访谈(MI)策略融入到对话生成过程中。MI策略是一系列心理治疗技巧,可以指导治疗师与患者进行有效的沟通。通过让LLM首先预测合适的MI策略,然后利用这些策略来指导对话生成,可以使生成的对话更符合治疗原则,并且可以解释生成过程。

技术框架:该方法主要包含两个阶段:策略预测和对话生成。在策略预测阶段,LLM被提示预测在当前对话状态下最合适的MI策略。在对话生成阶段,LLM利用预测的MI策略来生成下一句对话。整体流程是,输入当前对话历史,LLM预测MI策略,然后结合对话历史和MI策略生成下一句回复。

关键创新:该方法最重要的创新点在于将心理治疗领域的专业知识(MI策略)融入到LLM的对话生成过程中。这使得生成的对话不仅流畅自然,而且符合治疗原则,具有更高的可控性和可解释性。与现有方法相比,该方法能够更好地满足心理治疗对话生成的需求。

关键设计:论文的关键设计包括:(1) 使用特定的prompt来引导LLM进行策略预测,prompt中包含MI策略的定义和示例。(2) 将预测的MI策略作为输入传递给对话生成模型,以指导对话生成。(3) 使用自动评估指标和人工评估来评估生成对话的质量和MI策略的对齐程度。具体的参数设置和网络结构细节在论文中未详细说明,属于未知信息。

📊 实验亮点

实验结果表明,该方法能够生成与MI策略对齐的对话,并且在自动评估指标和人工评估中均取得了较好的结果。具体性能数据未知,但论文强调了MI策略在提升对话可控性和可解释性方面的有效性。该方法为心理治疗对话生成提供了一种新的思路。

🎯 应用场景

该研究成果可应用于开发智能心理治疗助手,辅助心理咨询师进行治疗。通过生成符合MI策略的对话,可以帮助患者更好地理解自身问题,并激发改变的动力。此外,该方法还可以用于心理治疗师的培训,帮助他们学习和掌握MI技巧。未来,该技术有望在远程心理咨询、心理健康教育等领域发挥重要作用。

📄 摘要(原文)

Recent advancements in large language models (LLMs) have shown promise in generating psychotherapeutic dialogues, particularly in the context of motivational interviewing (MI). However, the inherent lack of transparency in LLM outputs presents significant challenges given the sensitive nature of psychotherapy. Applying MI strategies, a set of MI skills, to generate more controllable therapeutic-adherent conversations with explainability provides a possible solution. In this work, we explore the alignment of LLMs with MI strategies by first prompting the LLMs to predict the appropriate strategies as reasoning and then utilizing these strategies to guide the subsequent dialogue generation. We seek to investigate whether such alignment leads to more controllable and explainable generations. Multiple experiments including automatic and human evaluations are conducted to validate the effectiveness of MI strategies in aligning psychotherapy dialogue generation. Our findings demonstrate the potential of LLMs in producing strategically aligned dialogues and suggest directions for practical applications in psychotherapeutic settings.