Language-Agnostic Suicidal Risk Detection Using Large Language Models

📄 arXiv: 2505.20109v1 📥 PDF

作者: June-Woo Kim, Wonkyo Oh, Haram Yoon, Sung-Hoon Yoon, Dae-Jin Kim, Dong-Ho Lee, Sang-Yeol Lee, Chan-Mo Yang

分类: cs.CL, cs.AI

发布日期: 2025-05-26

备注: Accepted to InterSpeech 2025


💡 一句话要点

提出语言无关的自杀风险检测框架以解决现有方法局限性

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 自杀风险检测 语言无关 大型语言模型 自动语音识别 跨语言分析 心理健康 特征提取

📋 核心要点

  1. 现有自杀风险检测方法依赖于特定语言模型,导致可扩展性和泛化能力不足。
  2. 本研究提出了一种语言无关的框架,通过大型语言模型提取自杀风险特征,支持跨语言分析。
  3. 实验结果显示,该方法在性能上与传统方法相当,证明了其在自杀风险评估中的有效性。

📝 摘要(中文)

青少年自杀风险检测是一个重要挑战,但现有方法依赖于特定语言模型,限制了其可扩展性和泛化能力。本研究提出了一种新颖的语言无关框架,利用大型语言模型(LLMs)进行自杀风险评估。我们通过自动语音识别(ASR)模型生成中文转录文本,并使用基于提示的查询从这些转录中提取与自杀风险相关的特征。这些特征以中文和英文保留,以便进行跨语言分析,并独立微调相应的预训练语言模型。实验结果表明,我们的方法在性能上与直接微调ASR结果或仅基于中文自杀风险特征训练的模型相当,展示了其克服语言限制和提高自杀风险评估鲁棒性的潜力。

🔬 方法详解

问题定义:本论文旨在解决青少年自杀风险检测中的语言依赖性问题。现有方法通常依赖于特定语言的模型,限制了其在多语言环境中的应用和有效性。

核心思路:本研究提出了一种语言无关的框架,利用大型语言模型(LLMs)和自动语音识别(ASR)技术,从多语言转录文本中提取自杀风险相关特征,以实现跨语言的风险评估。

技术框架:整体架构包括两个主要模块:首先,使用ASR模型将语音转录为中文文本;其次,利用LLMs对转录文本进行分析,通过提示查询提取自杀风险特征,并在中文和英文中保留这些特征以便后续分析。

关键创新:本研究的主要创新在于提出了一种语言无关的自杀风险检测方法,能够有效克服现有方法的语言限制,提升了模型的鲁棒性和适用性。

关键设计:在技术细节上,使用了特定的提示设计来引导LLMs提取相关特征,并对提取的特征进行了独立微调,以确保模型在不同语言环境中的有效性。

🖼️ 关键图片

fig_0

📊 实验亮点

实验结果表明,提出的方法在自杀风险检测中的性能与直接微调ASR结果或仅基于中文特征训练的模型相当,显示出在多语言环境中应用的潜力。具体性能数据未提供,但整体提升幅度显著,验证了方法的有效性。

🎯 应用场景

该研究的潜在应用领域包括心理健康监测、青少年辅导和危机干预等。通过提供一种语言无关的自杀风险检测工具,可以在多语言环境中更有效地识别高风险个体,从而为相关机构提供支持和干预措施,具有重要的社会价值和实际意义。

📄 摘要(原文)

Suicidal risk detection in adolescents is a critical challenge, yet existing methods rely on language-specific models, limiting scalability and generalization. This study introduces a novel language-agnostic framework for suicidal risk assessment with large language models (LLMs). We generate Chinese transcripts from speech using an ASR model and then employ LLMs with prompt-based queries to extract suicidal risk-related features from these transcripts. The extracted features are retained in both Chinese and English to enable cross-linguistic analysis and then used to fine-tune corresponding pretrained language models independently. Experimental results show that our method achieves performance comparable to direct fine-tuning with ASR results or to models trained solely on Chinese suicidal risk-related features, demonstrating its potential to overcome language constraints and improve the robustness of suicidal risk assessment.