Deep Learning and Large Language Models for Audio and Text Analysis in Predicting Suicidal Acts in Chinese Psychological Support Hotlines

📄 arXiv: 2409.06164v1 📥 PDF

作者: Yining Chen, Jianqiang Li, Changwei Song, Qing Zhao, Yongsheng Tong, Guanghui Fu

分类: cs.CL

发布日期: 2024-09-10


💡 一句话要点

利用大语言模型分析心理热线音频与文本以预测自杀行为

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 自杀风险预测 心理支持热线 大语言模型 深度学习 文本分析

📋 核心要点

  1. 现有自杀风险预测方法依赖人工评估,效率低且主观性强,难以大规模应用。
  2. 提出基于大语言模型的自杀风险预测流程,利用LLM从热线音频转录文本中提取关键特征。
  3. 实验表明,该方法在预测自杀行为方面优于传统人工评估和深度学习模型,F1值提升显著。

📝 摘要(中文)

自杀是一个紧迫的全球性问题,需要紧急和有效的预防干预。心理支持热线已被证明是一种有效的干预方法。在中国,每年约有200万人试图自杀,其中许多人多次尝试。对高危个体进行快速识别和干预对于预防悲剧至关重要。随着人工智能的快速发展,特别是大规模语言模型(LLM)的发展,新的技术工具被引入到精神健康领域。本研究纳入了1284名受试者,旨在验证深度学习模型和LLM是否能有效地利用支持热线的音频和转录文本来预测自杀风险。我们提出了一个简单的基于LLM的流程,首先总结大约一小时语音的转录文本以提取关键特征,然后预测未来的自杀行为。我们将基于LLM的方法与临床环境中的传统人工量表方法以及五种先进的深度学习模型进行了比较。令人惊讶的是,所提出的简单LLM流程在包含46名受试者的测试集上取得了强大的性能,当与人工量表评级相结合时,F1得分为76%。这比最佳的基于语音的深度学习模型高7%,并且比单独使用人工量表方法提高了27.82%的F1得分。我们的研究探索了LLM的新应用,并展示了它们在未来自杀预防工作中的潜力。

🔬 方法详解

问题定义:本研究旨在解决心理支持热线中自杀风险预测的问题。现有方法主要依赖人工量表评估,耗时且主观,难以快速有效地识别高危个体。深度学习模型在语音和文本分析方面取得进展,但缺乏对长时程对话信息的有效利用,难以捕捉细微的风险信号。

核心思路:论文的核心思路是利用大语言模型(LLM)强大的文本理解和概括能力,从心理支持热线的长时程对话记录中提取关键信息,从而更准确地预测自杀风险。这种方法旨在克服传统人工评估的低效性和主观性,以及传统深度学习模型对长时程信息的处理不足。

技术框架:整体流程包括以下几个阶段:1) 将心理支持热线的音频记录转录为文本;2) 使用LLM对转录文本进行总结,提取关键特征,例如求助者的情绪状态、自杀意念等;3) 将提取的特征输入到分类模型中,预测求助者未来的自杀风险;4) 将LLM预测结果与人工量表评分结合,进一步提升预测准确率。

关键创新:该研究的关键创新在于将LLM应用于心理支持热线的自杀风险预测。与传统的深度学习模型相比,LLM能够更好地理解和概括长时程对话信息,从而更准确地捕捉风险信号。此外,该研究还探索了LLM与人工量表评分相结合的方法,进一步提升了预测性能。

关键设计:论文中使用的LLM模型具体型号未知。关键设计在于如何利用LLM从长文本中提取有效特征,以及如何将LLM的预测结果与人工量表评分相结合。具体参数设置、损失函数和网络结构等技术细节未知。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,基于LLM的自杀风险预测流程在包含46名受试者的测试集上取得了显著的性能提升,F1得分为76%,比最佳的基于语音的深度学习模型高7%,并且比单独使用人工量表方法提高了27.82%的F1得分。这表明LLM在自杀风险预测方面具有巨大的潜力。

🎯 应用场景

该研究成果可应用于心理健康服务领域,例如自动化的自杀风险评估系统,帮助心理支持热线快速识别高危个体,并提供及时的干预和支持。此外,该方法还可以扩展到其他心理健康问题的早期预警和干预,例如抑郁症、焦虑症等,具有重要的社会价值和应用前景。

📄 摘要(原文)

Suicide is a pressing global issue, demanding urgent and effective preventive interventions. Among the various strategies in place, psychological support hotlines had proved as a potent intervention method. Approximately two million people in China attempt suicide annually, with many individuals making multiple attempts. Prompt identification and intervention for high-risk individuals are crucial to preventing tragedies. With the rapid advancement of artificial intelligence (AI), especially the development of large-scale language models (LLMs), new technological tools have been introduced to the field of mental health. This study included 1284 subjects, and was designed to validate whether deep learning models and LLMs, using audio and transcribed text from support hotlines, can effectively predict suicide risk. We proposed a simple LLM-based pipeline that first summarizes transcribed text from approximately one hour of speech to extract key features, and then predict suicidial bahaviours in the future. We compared our LLM-based method with the traditional manual scale approach in a clinical setting and with five advanced deep learning models. Surprisingly, the proposed simple LLM pipeline achieved strong performance on a test set of 46 subjects, with an F1 score of 76\% when combined with manual scale rating. This is 7\% higher than the best speech-based deep learning models and represents a 27.82\% point improvement in F1 score compared to using the manual scale apporach alone. Our study explores new applications of LLMs and demonstrates their potential for future use in suicide prevention efforts.