Virtual Agents for Alcohol Use Counseling: Exploring LLM-Powered Motivational Interviewing

📄 arXiv: 2407.08095v1 📥 PDF

作者: Ian Steenstra, Farnaz Nouraei, Mehdi Arjmand, Timothy W. Bickmore

分类: cs.HC, cs.CL

发布日期: 2024-07-10

DOI: 10.1145/3652988.3673932


💡 一句话要点

提出基于LLM的虚拟咨询师,用于酒精使用问题的动机访谈。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 虚拟咨询师 动机访谈 酒精使用咨询 提示工程

📋 核心要点

  1. 现有酒精使用咨询资源有限,尤其在药物滥用领域,难以满足需求。
  2. 利用大型语言模型(LLM)模拟动机访谈(MI)技巧,构建具有同理心的虚拟咨询师。
  3. 初步实验表明,该虚拟咨询师在同理心和对话适应性上可与人类咨询师媲美。

📝 摘要(中文)

本文介绍了一种大型语言模型(LLM)在开发虚拟咨询师中的创新应用,该咨询师能够进行酒精使用咨询的动机访谈(MI)。由于获得有效咨询的机会仍然有限,尤其是在药物滥用方面,因此虚拟咨询师提供了一种有前景的解决方案,它利用LLM的能力来模拟MI中固有的细致入微的沟通技巧。我们的方法结合了提示工程和集成到一个用户友好的虚拟平台中,以促进现实的、有同理心的互动。我们通过一系列研究评估了虚拟咨询师的有效性,重点是复制MI技术和人类咨询师的对话。初步研究结果表明,我们基于LLM的虚拟咨询师在同理心和适应性对话技巧方面与人类咨询师相匹配,这代表了虚拟健康咨询领域向前迈出的重要一步,并为基于LLM的治疗性互动的设计和实施提供了见解。

🔬 方法详解

问题定义:论文旨在解决酒精使用咨询资源不足的问题,尤其是在药物滥用领域。现有的咨询服务难以覆盖所有需要帮助的人群,且存在地域、时间等限制。传统的咨询方法依赖于人类咨询师,成本高昂且难以规模化。

核心思路:论文的核心思路是利用大型语言模型(LLM)的强大自然语言处理能力,构建一个能够模拟人类咨询师进行动机访谈(MI)的虚拟咨询师。通过精心设计的提示工程,使LLM能够理解并运用MI的核心原则和技巧,从而实现与用户的有效沟通和引导。

技术框架:该虚拟咨询师系统主要包含以下几个模块:用户界面模块(提供用户友好的交互界面)、LLM驱动的对话引擎模块(负责生成对话内容,模拟咨询师的反应)、提示工程模块(设计和优化LLM的输入提示,以控制其行为和输出)、评估模块(用于评估虚拟咨询师的性能和效果)。整个流程是用户通过界面与虚拟咨询师交互,系统将用户输入和预设提示传递给LLM,LLM生成回复,系统将回复呈现给用户,并记录对话过程用于后续评估。

关键创新:该论文的关键创新在于将LLM应用于动机访谈(MI)领域,并探索了如何通过提示工程来控制LLM的行为,使其能够有效地模拟人类咨询师的对话技巧。与传统的基于规则或有限状态机的虚拟咨询系统相比,该方法具有更强的灵活性和适应性,能够更好地应对用户的不同情况和需求。

关键设计:论文中关键的设计包括:1) 提示工程策略:设计了包含MI原则、目标和具体对话示例的提示,以引导LLM生成符合MI要求的回复。2) 对话管理策略:设计了对话历史记录和上下文理解机制,使LLM能够更好地理解用户的意图和需求。3) 评估指标:采用了包括同理心、开放式提问、反映性倾听等MI核心要素的评估指标,以衡量虚拟咨询师的性能。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

研究结果表明,基于LLM的虚拟咨询师在同理心和对话适应性方面与人类咨询师的表现相当。通过一系列实验,验证了该虚拟咨询师能够有效地运用动机访谈(MI)的核心技巧,如开放式提问、反映性倾听等。这些结果表明,LLM在虚拟健康咨询领域具有巨大的潜力。

🎯 应用场景

该研究成果可应用于在线心理健康咨询平台,为酒精使用问题患者提供便捷、可及的咨询服务。虚拟咨询师可以作为传统咨询服务的补充,缓解咨询资源不足的现状。未来,该技术还可扩展到其他心理健康领域,如抑郁症、焦虑症等,为更多人群提供帮助。

📄 摘要(原文)

We introduce a novel application of large language models (LLMs) in developing a virtual counselor capable of conducting motivational interviewing (MI) for alcohol use counseling. Access to effective counseling remains limited, particularly for substance abuse, and virtual agents offer a promising solution by leveraging LLM capabilities to simulate nuanced communication techniques inherent in MI. Our approach combines prompt engineering and integration into a user-friendly virtual platform to facilitate realistic, empathetic interactions. We evaluate the effectiveness of our virtual agent through a series of studies focusing on replicating MI techniques and human counselor dialog. Initial findings suggest that our LLM-powered virtual agent matches human counselors' empathetic and adaptive conversational skills, presenting a significant step forward in virtual health counseling and providing insights into the design and implementation of LLM-based therapeutic interactions.