Guiding Generative Storytelling with Knowledge Graphs
作者: Zhijun Pan, Antonios Andronis, Eva Hayek, Oscar AP Wilkinson, Ilya Lasy, Annette Parry, Guy Gadney, Tim J. Smith, Mick Grierson
分类: cs.CL, cs.HC
发布日期: 2025-05-30 (更新: 2026-01-09)
备注: Accepted for publication in the International Journal of Human-Computer Interaction. Published online 29 December 2025
期刊: International Journal of Human-Computer Interaction (2025)
DOI: 10.1080/10447318.2025.2603634
💡 一句话要点
提出知识图谱辅助的生成式故事叙述框架,提升长文本连贯性和用户可控性。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 故事生成 知识图谱 大型语言模型 人机交互 叙事控制
📋 核心要点
- 现有故事生成方法难以维持长文本的连贯性,且用户控制能力不足。
- 论文提出基于知识图谱辅助的故事生成流程,用户可通过编辑知识图谱来塑造叙事。
- 用户研究表明,该方法在行动导向型故事中表现良好,用户对控制感评价积极。
📝 摘要(中文)
大型语言模型(LLMs)在故事生成方面展现出巨大潜力,但仍面临长文本连贯性和有效、用户友好的控制等挑战。检索增强生成(RAG)已被证明在减少文本生成中的幻觉方面有效;虽然知识图谱(KG)驱动的故事叙述已在先前工作中探索过,但这项工作侧重于KG辅助的长文本生成以及可编辑的KG与LLM生成相结合的两阶段用户研究。本研究调查了KG如何通过提高叙事质量和实现用户驱动的修改来增强基于LLM的故事叙述。我们提出了一个KG辅助的故事叙述流程,并在包含15名参与者的用户研究中对其进行了评估。参与者创建提示,生成故事,并编辑KG以塑造他们的叙事。定量和定性分析发现,在我们的设置下,改进集中在面向行动、结构明确的叙事中,但不适用于内省式故事。参与者报告说,在编辑KG时有很强的控制感,并将这种体验描述为引人入胜、互动和有趣。
🔬 方法详解
问题定义:现有的大型语言模型在生成长篇故事时,容易出现连贯性不足和内容漂移的问题。同时,用户难以有效地控制故事的走向和细节,缺乏互动性和个性化定制能力。检索增强生成(RAG)虽然能减少幻觉,但对故事结构的控制仍然有限。
核心思路:论文的核心思路是利用知识图谱(KG)作为故事生成的结构化骨架,并允许用户直接编辑KG来影响故事的叙事方向。通过将KG与LLM结合,既能保证故事的连贯性,又能赋予用户更强的控制权。
技术框架:该方法包含一个KG辅助的故事叙述流程,主要包括以下几个阶段:1) 用户创建故事提示;2) LLM基于提示和KG生成初始故事;3) 用户编辑KG,修改故事中的实体、关系和事件;4) LLM根据修改后的KG重新生成故事。整个过程是一个迭代循环,用户可以多次编辑KG并重新生成故事,直到满意为止。
关键创新:该方法的关键创新在于将可编辑的知识图谱与LLM故事生成相结合。用户不再仅仅是提供提示,而是可以通过直接操纵KG来影响故事的叙事结构和内容。这种交互式的生成方式赋予了用户更强的创作自由和控制力。
关键设计:论文中并没有详细描述LLM的具体选择和KG的构建方式,这些可能是基于现有技术的选择。关键在于用户编辑KG的方式和LLM如何根据KG的变化来调整故事内容。具体的技术细节(如KG的表示方法、LLM的微调策略等)在论文中没有详细说明,属于未知信息。
🖼️ 关键图片
📊 实验亮点
用户研究表明,该方法在生成行动导向型、结构明确的故事时效果显著。参与者对编辑知识图谱的体验评价积极,认为这种方式具有很强的互动性和趣味性,并能有效提升用户对故事的控制感。但对于内省式故事,该方法的改进效果不明显。
🎯 应用场景
该研究成果可应用于交互式故事创作、游戏剧情设计、教育领域的个性化学习内容生成等场景。通过知识图谱的引导,可以帮助用户更轻松地创作出结构清晰、内容丰富的长篇故事,并实现个性化的叙事体验。未来,该技术有望应用于更广泛的创意写作和内容生成领域。
📄 摘要(原文)
Large language models (LLMs) have shown great potential in story generation, but challenges remain in maintaining long-form coherence and effective, user-friendly control. Retrieval-augmented generation (RAG) has proven effective in reducing hallucinations in text generation; while knowledge-graph (KG)-driven storytelling has been explored in prior work, this work focuses on KG-assisted long-form generation and an editable KG coupled with LLM generation in a two-stage user study. This work investigates how KGs can enhance LLM-based storytelling by improving narrative quality and enabling user-driven modifications. We propose a KG-assisted storytelling pipeline and evaluate it in a user study with 15 participants. Participants created prompts, generated stories, and edited KGs to shape their narratives. Quantitative and qualitative analysis finds improvements concentrated in action-oriented, structurally explicit narratives under our settings, but not for introspective stories. Participants reported a strong sense of control when editing the KG, describing the experience as engaging, interactive, and playful.