Dr. GPT in Campus Counseling: Understanding Higher Education Students' Opinions on LLM-assisted Mental Health Services

📄 arXiv: 2409.17572v1 📥 PDF

作者: Owen Xingjian Zhang, Shuyao Zhou, Jiayi Geng, Yuhan Liu, Sunny Xun Liu

分类: cs.HC, cs.AI

发布日期: 2024-09-26

备注: 5 pages


💡 一句话要点

探索LLM在校园心理咨询中的应用:理解大学生对AI辅助心理健康服务的观点

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 心理健康 大学生 校园咨询 人机交互

📋 核心要点

  1. 大学生面临日益严峻的心理健康挑战,传统心理咨询资源有限,难以满足需求。
  2. 通过访谈探索大学生对LLM辅助心理健康服务的看法,分析不同场景下的接受度和顾虑。
  3. 研究揭示了LLM在信息咨询、初步筛选等场景的潜力,同时也指出了情感支持方面的局限性。

📝 摘要(中文)

为了应对大学生日益增长的心理健康挑战,本研究旨在了解他们对人工智能应用,特别是大型语言模型(LLM),如何提升心理健康的看法。通过对十名不同背景的学生进行初步访谈,我们探讨了他们对LLM在五个虚构场景中的使用意见:一般信息咨询、初步筛选、重塑患者-专家关系、长期护理和随访护理。研究结果表明,学生对LLM的接受程度因场景而异,参与者强调了潜在的好处,如积极参与和个性化随访护理,以及对训练数据和情感支持的局限性的担忧。这些见解为如何设计和实施人工智能技术以有效支持和提升学生的心理健康提供了信息,尤其是在LLM可以补充传统方法、同时保持同理心和尊重个人偏好的场景中。

🔬 方法详解

问题定义:论文旨在解决大学生心理健康服务需求日益增长,而传统心理咨询资源不足的问题。现有方法的痛点在于效率低、覆盖面窄,且难以提供个性化的支持。此外,学生对寻求心理帮助存在顾虑,可能导致问题被忽视。

核心思路:论文的核心思路是探索利用大型语言模型(LLM)辅助心理健康服务,以提高效率、扩大覆盖面,并提供更个性化的支持。通过了解大学生对LLM在不同心理健康服务场景中的看法,为AI技术的有效应用提供指导。

技术框架:该研究采用定性研究方法,通过与十名大学生进行半结构化访谈,收集他们对LLM在五个虚构场景(一般信息咨询、初步筛选、重塑患者-专家关系、长期护理和随访护理)中的使用意见。访谈内容围绕LLM的潜在好处、局限性和伦理考量展开。

关键创新:该研究的创新之处在于,它并非直接开发或评估某种具体的LLM心理健康应用,而是侧重于理解目标用户(大学生)对这类技术的看法和接受程度。这种以用户为中心的研究方法有助于指导未来AI心理健康工具的设计和部署,确保其能够真正满足用户的需求并解决他们的顾虑。

关键设计:研究的关键设计在于选择了五个具有代表性的心理健康服务场景,并针对每个场景设计了具体的问题,以引导参与者思考LLM在该场景下的潜在作用和影响。此外,研究人员还注重参与者的多样性,以确保收集到的意见能够反映不同背景学生的观点。

📊 实验亮点

研究发现,大学生对LLM在一般信息咨询和随访护理等场景的接受度较高,认为LLM可以提供便捷的信息获取和个性化的关怀。然而,他们对LLM在情感支持和处理复杂心理问题方面的能力表示担忧,强调了人工干预的重要性。这些发现为LLM在心理健康领域的应用提供了重要的参考。

🎯 应用场景

该研究成果可应用于开发基于LLM的校园心理健康服务平台,为学生提供24/7的在线咨询、初步评估和个性化建议。此外,研究结果还可以指导心理健康专业人员更好地利用AI技术,提高工作效率和服务质量。未来,该研究有望推动AI技术在心理健康领域的更广泛应用,改善大众的心理健康状况。

📄 摘要(原文)

In response to the increasing mental health challenges faced by college students, we sought to understand their perspectives on how AI applications, particularly Large Language Models (LLMs), can be leveraged to enhance their mental well-being. Through pilot interviews with ten diverse students, we explored their opinions on the use of LLMs across five fictional scenarios: General Information Inquiry, Initial Screening, Reshaping Patient-Expert Dynamics, Long-term Care, and Follow-up Care. Our findings revealed that students' acceptance of LLMs varied by scenario, with participants highlighting both potential benefits, such as proactive engagement and personalized follow-up care, and concerns, including limitations in training data and emotional support. These insights inform how AI technology should be designed and implemented to effectively support and enhance students' mental well-being, particularly in scenarios where LLMs can complement traditional methods, while maintaining empathy and respecting individual preferences.