Moving Beyond Review: Applying Language Models to Planning and Translation in Reflection
作者: Seyed Parsa Neshaei, Richard Lee Davis, Tanja Käser
分类: cs.HC, cs.AI, cs.CL
发布日期: 2026-03-30
备注: Accepted at AIED 2026
💡 一句话要点
Pensée:利用语言模型在反思写作的规划和翻译阶段提供支持,提升反思深度和质量。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 反思性写作 大型语言模型 写作认知过程理论 对话代理 教育技术
📋 核心要点
- 现有方法在反思性写作中利用LLM主要集中于提供反馈,忽略了规划和组织阶段的支持。
- Pensée工具通过对话代理辅助规划和自动提取关键概念来支持反思性写作的规划和翻译阶段。
- 实验结果表明,在规划和翻译阶段提供AI支持能显著提高反思深度和结构质量。
📝 摘要(中文)
反思性写作被认为有助于培养学生的元认知能力,但学习者常常难以进行深入的反思,从而限制了学习效果。虽然大型语言模型(LLMs)已被证明可以提高写作技能,但它们作为反思性写作的对话代理的应用效果参差不齐,并且主要集中在提供反思文本的反馈,而不是在规划和组织阶段提供支持。本文受到写作认知过程理论(CPT)的启发,首次将LLMs应用于反思性写作的规划和翻译步骤。我们引入了Pensée,一个通过对话代理支持结构化反思规划,并通过自动提取关键概念来支持翻译的工具,旨在探索在这些阶段提供显式AI支持的效果。我们进行了一项受控的被试间实验(N=93),操纵了AI在写作阶段的支持。结果表明,当学习者在CPT的规划和翻译阶段获得支持时,反思深度和结构质量显著提高,但这些效果在延迟的后测中有所减弱。对学习者行为和认知的分析进一步说明了与CPT对齐的对话支持如何塑造反思过程和学习者体验,为AI支持的反思性写作中基于理论的LLMs应用提供了经验证据。
🔬 方法详解
问题定义:论文旨在解决学生在反思性写作中难以进行深入反思的问题,现有方法主要集中于提供写作反馈,忽略了写作规划和翻译阶段的困难,导致LLM在反思性写作中的应用效果不佳。
核心思路:论文的核心思路是借鉴写作认知过程理论(CPT),将LLM应用于反思性写作的规划和翻译阶段,通过结构化的对话引导和关键概念提取,帮助学生更有效地进行反思。这样设计的目的是为了弥补现有方法在写作前期支持上的不足,从而提升反思的深度和质量。
技术框架:Pensée工具包含两个主要模块:1) 规划模块:利用对话代理,根据CPT理论,引导学生进行结构化的反思规划,例如,提问关于经验、感受、评估和行动计划的问题。2) 翻译模块:自动从学生的写作草稿中提取关键概念,帮助学生更好地组织和表达他们的想法。整体流程是学生首先与规划模块进行交互,然后进行写作,最后使用翻译模块提取关键概念。
关键创新:论文的关键创新在于首次将LLM应用于反思性写作的规划和翻译阶段,并结合了CPT理论,提供了一种结构化的、理论驱动的AI支持方法。与现有方法相比,Pensée更注重写作过程的前期支持,而不仅仅是提供反馈。
关键设计:规划模块使用了基于LLM的对话代理,该代理被设计成能够根据CPT的原则提出引导性问题。翻译模块使用了关键词提取算法,具体算法细节未知。实验中,AI支持被操纵为有或无,以评估其对反思深度和结构质量的影响。具体参数设置和损失函数等技术细节未知。
🖼️ 关键图片
📊 实验亮点
实验结果表明,在反思性写作的规划和翻译阶段提供AI支持,能够显著提高学习者的反思深度和结构质量。具体而言,接受AI支持的组别在反思深度和结构质量方面均优于未接受支持的组别。虽然这种提升在延迟后测中有所减弱,但仍然证明了在写作前期提供AI支持的有效性。实验还分析了学习者的行为和认知,揭示了AI支持如何影响反思过程和学习体验。
🎯 应用场景
该研究成果可应用于教育领域,特别是高等教育和职业培训中,帮助学生提升反思性写作能力和元认知技能。Pensée工具可以集成到在线学习平台或写作辅助软件中,为学生提供个性化的反思性写作支持,促进更深入的学习和知识内化。未来,该方法可以扩展到其他类型的写作任务和学习场景。
📄 摘要(原文)
Reflective writing is known to support the development of students' metacognitive skills, yet learners often struggle to engage in deep reflection, limiting learning gains. Although large language models (LLMs) have been shown to improve writing skills, their use as conversational agents for reflective writing has produced mixed results and has largely focused on providing feedback on reflective texts, rather than support during planning and organizing. In this paper, inspired by the Cognitive Process Theory of writing (CPT), we propose the first application of LLMs to the planning and translation steps of reflective writing. We introduce Pensée, a tool to explore the effects of explicit AI support during these stages by scaffolding structured reflection planning using a conversational agent, and supporting translation by automatically extracting key concepts. We evaluate Pensée in a controlled between-subjects experiment (N=93), manipulating AI support across writing phases. Results show significantly greater reflection depth and structural quality when learners receive support during planning and translation stages of CPT, though these effects reduce in a delayed post-test. Analyses of learner behavior and perceptions further illustrate how CPT-aligned conversational support shapes reflection processes and learner experience, contributing empirical evidence for theory-driven uses of LLMs in AI-supported reflective writing.