R$^2$: A LLM Based Novel-to-Screenplay Generation Framework with Causal Plot Graphs

📄 arXiv: 2503.15655v1 📥 PDF

作者: Zefeng Lin, Yi Xiao, Zhiqiang Mo, Qifan Zhang, Jie Wang, Jiayang Chen, Jiajing Zhang, Hui Zhang, Zhengyi Liu, Xianyong Fang, Xiaohua Xu

分类: cs.AI

发布日期: 2025-03-19

备注: 16 pages, 6 figures


💡 一句话要点

提出R$^2$框架,利用因果情节图和幻觉感知优化,实现小说到剧本的自动转换。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 小说改编 剧本生成 大型语言模型 因果情节图 幻觉感知优化 自然语言处理 文本生成

📋 核心要点

  1. 现有方法在将小说改编为剧本时,面临LLM幻觉导致情节不一致以及难以提取因果情节线的挑战。
  2. R$^2$框架通过幻觉感知优化(HAR)和因果情节图构建(CPC),提升情节提取的准确性和剧本生成的连贯性。
  3. 实验表明,R$^2$在剧本生成质量上显著优于现有方法,GPT-4o的成对比较中总体胜率提升显著。

📝 摘要(中文)

本文提出了一种基于大型语言模型(LLM)的框架Reader-Rewriter (R$^2$),用于将小说自动改编成剧本。该框架旨在解决LLM幻觉导致情节提取和剧本生成不一致的问题,以及如何有效提取因果关系嵌入的情节线以实现连贯的重写。为此,提出了两种策略:一是幻觉感知优化方法(HAR),迭代地发现和消除幻觉的影响;二是基于贪婪循环打破算法的因果情节图构建方法(CPC),以高效地构建具有事件因果关系的情节线。R$^2$利用Reader和Rewriter两个模块模拟人工剧本重写过程。Reader模块采用滑动窗口和CPC构建因果情节图,Rewriter模块首先基于图生成场景大纲,然后生成剧本。HAR集成到两个模块中,以实现LLM的准确推理。实验结果表明,R$^2$优于现有的三种方法,在GPT-4o的成对比较中,总体胜率绝对提升了51.3%、22.6%和57.1%。

🔬 方法详解

问题定义:论文旨在解决小说到剧本自动转换的问题。现有方法,尤其是基于LLM的方法,容易产生幻觉,导致情节提取不准确和剧本逻辑不连贯。此外,如何有效提取小说中蕴含的因果关系,并将其融入剧本创作中,也是一个挑战。

核心思路:论文的核心思路是模拟人类编剧的阅读和重写过程,通过Reader模块提取小说的情节和因果关系,然后通过Rewriter模块将这些信息转化为剧本。为了解决LLM的幻觉问题,引入了幻觉感知优化(HAR)方法,迭代地发现和消除幻觉的影响。

技术框架:R$^2$框架包含两个主要模块:Reader模块和Rewriter模块。Reader模块使用滑动窗口和因果情节图构建(CPC)方法,从小说中提取情节和因果关系。Rewriter模块首先基于情节图生成场景大纲,然后生成最终的剧本。HAR被集成到两个模块中,以提高LLM推理的准确性。

关键创新:论文的关键创新在于提出了幻觉感知优化(HAR)方法和因果情节图构建(CPC)方法。HAR通过迭代地发现和消除LLM的幻觉,提高了情节提取的准确性。CPC方法基于贪婪循环打破算法,能够高效地构建具有事件因果关系的情节线。

关键设计:CPC方法使用贪婪循环打破算法来解决因果关系图中可能存在的循环依赖问题,确保情节线的逻辑一致性。HAR的具体实现细节(如幻觉检测和消除的策略)在论文中可能没有详细描述,属于未知信息。Reader模块的滑动窗口大小和Rewriter模块的生成策略也是重要的设计细节,但具体参数设置未知。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,R$^2$框架在小说到剧本的自动转换任务中表现出色,显著优于现有的三种方法。在GPT-4o的成对比较中,R$^2$的总体胜率绝对提升了51.3%、22.6%和57.1%。这表明R$^2$框架能够更准确地提取情节,生成更连贯、更符合逻辑的剧本。

🎯 应用场景

该研究成果可应用于影视、戏剧等行业的剧本创作,降低剧本改编成本,提高生产效率。通过自动化小说到剧本的转换,可以快速将大量文学作品改编成影视作品,丰富文化产品的内容供给。此外,该技术还可以应用于游戏剧情设计、广告创意等领域。

📄 摘要(原文)

Automatically adapting novels into screenplays is important for the TV, film, or opera industries to promote products with low costs. The strong performances of large language models (LLMs) in long-text generation call us to propose a LLM based framework Reader-Rewriter (R$^2$) for this task. However, there are two fundamental challenges here. First, the LLM hallucinations may cause inconsistent plot extraction and screenplay generation. Second, the causality-embedded plot lines should be effectively extracted for coherent rewriting. Therefore, two corresponding tactics are proposed: 1) A hallucination-aware refinement method (HAR) to iteratively discover and eliminate the affections of hallucinations; and 2) a causal plot-graph construction method (CPC) based on a greedy cycle-breaking algorithm to efficiently construct plot lines with event causalities. Recruiting those efficient techniques, R$^2$ utilizes two modules to mimic the human screenplay rewriting process: The Reader module adopts a sliding window and CPC to build the causal plot graphs, while the Rewriter module generates first the scene outlines based on the graphs and then the screenplays. HAR is integrated into both modules for accurate inferences of LLMs. Experimental results demonstrate the superiority of R$^2$, which substantially outperforms three existing approaches (51.3%, 22.6%, and 57.1% absolute increases) in pairwise comparison at the overall win rate for GPT-4o.