Positioning AI Tools to Support Online Harm Reduction Practice: Applications and Design Directions

📄 arXiv: 2506.22941v3 📥 PDF

作者: Kaixuan Wang, Jason T. Jacques, Chenxin Diao, Carl-Cyril J Dreue

分类: cs.HC, cs.AI

发布日期: 2025-06-28 (更新: 2025-07-13)

备注: 16 pages, 4 figures, with appendix


💡 一句话要点

探索LLM在减少药物滥用危害信息提供中的应用与设计方向

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 药物滥用 减 harm 在线信息服务 伦理设计

📋 核心要点

  1. 现有在线渠道在为药物使用者提供准确及时的减 harm 信息方面存在适应性差、可访问性低和污名化等问题。
  2. 本研究探索利用大型语言模型(LLM)来改善信息提供,重点关注其在高风险场景下的应用和社会技术挑战。
  3. 通过研讨会,研究识别了LLM的潜在用例,并提出了伦理、语境理解、沟通和操作边界等核心设计考虑因素。

📝 摘要(中文)

获取准确且可操作的减 harm 信息能够直接影响药物使用者(PWUD)的健康结果。然而,由于适应性、可访问性和普遍存在的污名化影响的限制,现有的在线渠道通常无法满足他们多样化和动态的需求。大型语言模型(LLM)为增强信息提供提供了一个新的机会,但其在此高风险领域的应用尚未被充分探索,并带来了社会技术挑战。本文探讨了如何负责任地设计 LLM 以支持 PWUD 的信息需求。通过涉及不同利益相关者群体(学者、减 harm 从业者和在线社区版主)的定性研讨会,我们探索了 LLM 的能力,确定了潜在的用例,并划定了核心设计考虑因素。我们的研究结果表明,虽然 LLM 可以解决一些现有的信息障碍(例如,通过提供响应迅速、多语言且可能减少污名化的交互),但其有效性取决于克服与减 harm 原则的伦理一致性、细致的语境理解、有效的沟通和明确定义的操作边界相关的挑战。我们阐明了强调与专家和 PWUD 协作共同设计的途径,以开发有帮助、安全且负责任地管理的 LLM 系统。这项工作为负责任地开发 LLM 作为减 harm 生态系统中的支持工具贡献了基于经验的见解和可操作的设计考虑因素。

🔬 方法详解

问题定义:论文旨在解决药物使用者(PWUD)在线获取准确、可操作的减 harm 信息时面临的挑战。现有在线渠道存在适应性差、可访问性低以及污名化等问题,无法有效满足PWUD多样化和动态的信息需求。

核心思路:论文的核心思路是探索如何负责任地设计和应用大型语言模型(LLM),以克服现有信息障碍,为PWUD提供更有效、更安全、更具包容性的信息服务。通过与不同利益相关者(包括学者、减 harm 从业者和PWUD)的合作,共同设计LLM系统,确保其符合伦理原则和实际需求。

技术框架:该研究采用定性研究方法,通过研讨会形式收集数据。研讨会参与者包括学者、减 harm 从业者和在线社区版主。研讨会旨在探索LLM的能力,识别潜在用例,并确定核心设计考虑因素。研究结果被用于提出LLM系统设计的指导原则和建议。

关键创新:该研究的创新之处在于将LLM应用于减 harm 领域,并强调了负责任的设计和伦理考量。与以往侧重于技术性能的研究不同,该研究关注LLM在实际应用中的社会影响,并提出了与利益相关者共同设计的理念。

关键设计:关键设计考虑因素包括:1) 伦理一致性,确保LLM符合减 harm 原则;2) 细致的语境理解,使LLM能够理解PWUD的具体需求和情况;3) 有效的沟通,确保LLM提供的信息清晰易懂;4) 明确定义的操作边界,防止LLM被用于不当用途。此外,研究强调与专家和PWUD的协作共同设计,以确保LLM系统能够真正满足他们的需求。

🖼️ 关键图片

img_0

📊 实验亮点

研究通过定性研讨会,收集了来自学者、减 harm 从业者和在线社区版主等不同利益相关者的意见,识别了LLM在减 harm 信息提供中的潜在用例和设计挑战。研究强调了伦理一致性、语境理解、有效沟通和操作边界等关键设计考虑因素,为LLM在减 harm 领域的负责任应用提供了指导。

🎯 应用场景

该研究成果可应用于开发在线减 harm 信息平台、智能问答系统和个性化健康咨询服务,为药物使用者提供更便捷、更友好的信息获取渠道。有助于减少药物滥用带来的危害,改善PWUD的健康状况,并促进社会对PWUD的理解和支持。未来可扩展到其他高风险人群的信息服务领域。

📄 摘要(原文)

Access to accurate and actionable harm reduction information can directly impact the health outcomes of People Who Use Drugs (PWUD), yet existing online channels often fail to meet their diverse and dynamic needs due to limitations in adaptability, accessibility, and the pervasive impact of stigma. Large Language Models (LLMs) present a novel opportunity to enhance information provision, but their application in such a high-stakes domain is under-explored and presents socio-technical challenges. This paper investigates how LLMs can be responsibly designed to support the information needs of PWUD. Through a qualitative workshop involving diverse stakeholder groups (academics, harm reduction practitioners, and an online community moderator), we explored LLM capabilities, identified potential use cases, and delineated core design considerations. Our findings reveal that while LLMs can address some existing information barriers (e.g., by offering responsive, multilingual, and potentially less stigmatising interactions), their effectiveness is contingent upon overcoming challenges related to ethical alignment with harm reduction principles, nuanced contextual understanding, effective communication, and clearly defined operational boundaries. We articulate design pathways emphasising collaborative co-design with experts and PWUD to develop LLM systems that are helpful, safe, and responsibly governed. This work contributes empirically grounded insights and actionable design considerations for the responsible development of LLMs as supportive tools within the harm reduction ecosystem.