Stakeholder Perspectives on Whether and How Social Robots Can Support Mediation and Advocacy for Higher Education Students with Disabilities
作者: Alva Markelius, Julie Bailey, Jenny L. Gibson, Hatice Gunes
分类: cs.HC, cs.AI, cs.CY, cs.RO
发布日期: 2025-03-11
备注: This is a pre-print
💡 一句话要点
探索社交机器人辅助残疾大学生进行调解和权益维护的潜力
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 社交机器人 残疾大学生 权益维护 调解 高等教育 参与式设计 人工智能 伦理考量
📋 核心要点
- 现有方法在为残疾大学生提供调解和权益维护支持方面存在不足,尤其是在资源可及性和个性化服务方面。
- 该研究探索利用社交机器人和大型语言模型,通过提供信息、情感支持和学习辅助,增强残疾学生的自我权益维护能力。
- 研究通过与利益相关者的访谈和焦点小组,收集了关于机器人辅助调解和权益维护的潜在应用和伦理考量的见解。
📝 摘要(中文)
本文提出了一项迭代的、参与式的实证研究,旨在探讨使用人工智能(如社交机器人和大型语言模型)来支持高等教育中残疾学生的调解和权益维护的潜力。该研究利用从剑桥大学的残疾学生、残疾学生代表和残疾事务从业人员处收集的访谈和焦点小组的定性数据,报告了与理解问题空间、构思机器人支持以及参与式共同设计权益维护支持机器人相关的发现。研究结果强调了这些技术在提供指引和充当倾听者或学习伙伴方面的潜力,同时也指出了在共情理解、信任、公平和可访问性方面的局限性。我们讨论了伦理方面的考虑,包括交叉偏见、双重共情问题以及在受结构性不平等影响的环境中部署社交机器人的影响。最后,我们为未来的研究提供了一系列建议和意见,重新思考纠正性技术干预的概念,将其转变为能够增强和放大自我权益维护的工具。
🔬 方法详解
问题定义:该论文旨在解决高等教育中残疾学生在调解和权益维护方面面临的挑战。现有方法通常依赖于人工支持,存在资源有限、响应时间长、个性化程度低等问题。此外,残疾学生可能因为各种原因(例如,害怕被污名化)而不愿寻求帮助。
核心思路:论文的核心思路是探索利用社交机器人作为辅助工具,为残疾学生提供调解和权益维护支持。社交机器人可以提供信息、情感支持、学习辅助,并充当倾听者,从而增强学生的自我权益维护能力。这种方法旨在弥补现有方法的不足,并为学生提供更便捷、个性化和私密的帮助。
技术框架:该研究采用迭代的、参与式的研究方法。首先,通过与残疾学生、学生代表和从业人员的访谈和焦点小组,了解问题空间和需求。然后,基于这些需求,构思社交机器人可以提供的支持,并进行参与式共同设计。最后,评估设计的可行性和潜在影响。研究过程中使用了定性数据分析方法,例如主题分析,来识别关键主题和模式。
关键创新:该研究的创新之处在于探索了社交机器人作为残疾大学生调解和权益维护支持工具的潜力。与传统的辅助技术相比,社交机器人具有更强的交互性和情感表达能力,可以更好地满足学生的需求。此外,该研究强调了参与式共同设计的重要性,确保设计的机器人能够真正满足用户的需求。
关键设计:研究中没有涉及具体的机器人硬件或软件设计细节。重点在于理解利益相关者的需求和期望,并基于此提出概念性的机器人支持方案。例如,机器人可以提供信息指引、充当倾听者、提供学习辅助等。研究还强调了伦理考量,例如如何避免偏见、确保公平性和可访问性。
🖼️ 关键图片
📊 实验亮点
该研究通过与利益相关者的访谈和焦点小组,深入了解了残疾学生在调解和权益维护方面面临的挑战和需求。研究结果表明,社交机器人具有在提供信息指引、充当倾听者和提供学习辅助方面的潜力。同时,研究也强调了在设计和部署社交机器人时需要考虑的伦理问题,例如偏见、公平性和可访问性。
🎯 应用场景
该研究成果可应用于高等教育机构,为残疾学生提供更便捷、个性化和有效的调解和权益维护支持。社交机器人可以作为辅助工具,减轻人工支持的压力,并为学生提供更私密的帮助。此外,该研究也为其他领域(例如,医疗保健、社会服务)中社交机器人的应用提供了借鉴。
📄 摘要(原文)
This paper presents an iterative, participatory, empirical study that examines the potential of using artificial intelligence, such as social robots and large language models, to support mediation and advocacy for students with disabilities in higher education. Drawing on qualitative data from interviews and focus groups conducted with various stakeholders, including disabled students, disabled student representatives, and disability practitioners at the University of Cambridge, this study reports findings relating to understanding the problem space, ideating robotic support and participatory co-design of advocacy support robots. The findings highlight the potential of these technologies in providing signposting and acting as a sounding board or study companion, while also addressing limitations in empathic understanding, trust, equity, and accessibility. We discuss ethical considerations, including intersectional biases, the double empathy problem, and the implications of deploying social robots in contexts shaped by structural inequalities. Finally, we offer a set of recommendations and suggestions for future research, rethinking the notion of corrective technological interventions to tools that empower and amplify self-advocacy.