Auditing Student-AI Collaboration: A Case Study of Online Graduate CS Students

📄 arXiv: 2601.08697v1 📥 PDF

作者: Nifu Dan

分类: cs.HC, cs.AI

发布日期: 2026-01-13


💡 一句话要点

通过调研在线CS研究生,审计学生与AI在学术任务中的协作模式与偏好。

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 学生-AI协作 教育AI 生成式AI 在线教育 计算机科学教育

📋 核心要点

  1. 生成式AI在教育中的应用引发了对过度自动化和学生自主性降低的担忧。
  2. 该研究采用混合方法,通过调查分析学生对AI在学术任务中协作的偏好和期望。
  3. 研究旨在发现现有AI功能与学生期望之间的差距,为开发更有效的教育AI系统提供依据。

📝 摘要(中文)

随着生成式AI融入高等教育,它日益影响学生完成学术任务的方式。虽然这些系统提供了效率和支持,但过度自动化、学生自主性降低以及潜在的不可靠或幻觉输出等问题仍然存在。本研究通过考察当前AI能力与学生在学术工作中期望的自动化水平之间的一致性,对学生-AI协作偏好进行混合方法审计。通过两个连续且互补的调查,我们捕捉学生在使用AI时的感知收益、风险和首选边界。第一个调查采用现有的基于任务的框架来评估AI在12个学术任务中的偏好和实际使用情况,以及主要关注点和使用原因。第二个调查在第一个调查的基础上,通过开放式问题探讨如何设计AI系统来解决这些问题。本研究旨在识别现有AI功能与学生对协作的规范性期望之间的差距,从而为教育开发更有效和值得信赖的AI系统。

🔬 方法详解

问题定义:论文旨在解决的问题是,在高等教育中,学生如何看待并使用生成式AI来完成学术任务,以及当前AI的能力与学生期望的协作模式之间是否存在差距。现有方法的痛点在于,缺乏对学生实际使用AI情况和偏好的深入了解,难以指导AI系统在教育领域的有效设计和应用。

核心思路:论文的核心思路是通过混合方法,即结合定量和定性的调查研究,全面了解学生在使用AI时的感知收益、风险和首选边界。通过分析学生对不同学术任务中AI使用情况的偏好和实际使用情况,以及他们对AI系统设计的期望,从而识别现有AI功能与学生期望之间的差距。

技术框架:研究采用两个连续且互补的调查。第一个调查使用基于任务的框架,评估学生在12个学术任务中对AI的偏好和实际使用情况,以及他们使用AI的主要原因和关注点。第二个调查在第一个调查的基础上,通过开放式问题,探索如何设计AI系统来解决学生在第一个调查中提出的问题。

关键创新:该研究的关键创新在于,它不是简单地评估AI在教育中的应用效果,而是从学生的角度出发,深入了解他们对AI协作的期望和偏好。通过识别现有AI功能与学生期望之间的差距,为开发更符合学生需求的教育AI系统提供了新的视角。

关键设计:第一个调查采用现有的任务框架,选取了12个常见的学术任务,例如写作、研究、编程等。调查问题包括学生对AI在这些任务中的使用频率、偏好程度、感知收益和风险等。第二个调查则采用开放式问题,鼓励学生提出对AI系统设计的建议,例如如何提高AI的可靠性、如何保护学生的自主性等。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该研究通过两个互补的调查,揭示了学生在使用AI完成学术任务时的偏好和期望。研究发现,学生对AI的自动化程度存在差异化的需求,并且对AI的可靠性和自主性提出了更高的要求。这些发现为开发更有效的教育AI系统提供了重要的参考依据。

🎯 应用场景

该研究成果可应用于指导教育领域AI系统的设计和开发,使其更符合学生的实际需求和期望。通过弥合现有AI功能与学生期望之间的差距,可以提高AI在教育中的应用效果,并促进学生更有效地利用AI来提升学习效率和质量。此外,该研究还可以为教育政策制定者提供参考,帮助他们制定更合理的AI应用规范。

📄 摘要(原文)

As generative AI becomes embedded in higher education, it increasingly shapes how students complete academic tasks. While these systems offer efficiency and support, concerns persist regarding over-automation, diminished student agency, and the potential for unreliable or hallucinated outputs. This study conducts a mixed-methods audit of student-AI collaboration preferences by examining the alignment between current AI capabilities and students' desired levels of automation in academic work. Using two sequential and complementary surveys, we capture students' perceived benefits, risks, and preferred boundaries when using AI. The first survey employs an existing task-based framework to assess preferences for and actual usage of AI across 12 academic tasks, alongside primary concerns and reasons for use. The second survey, informed by the first, explores how AI systems could be designed to address these concerns through open-ended questions. This study aims to identify gaps between existing AI affordances and students' normative expectations of collaboration, informing the development of more effective and trustworthy AI systems for education.