CREFT: Sequential Multi-Agent LLM for Character Relation Extraction
作者: Ye Eun Chun, Taeyoon Hwang, Seung-won Hwang, Byung-Hak Kim
分类: cs.CL, cs.AI
发布日期: 2025-05-30
💡 一句话要点
CREFT:用于角色关系抽取的序列多智能体LLM框架
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 人物关系抽取 大型语言模型 多智能体系统 知识蒸馏 序列框架
📋 核心要点
- 现有方法难以处理长篇叙事中复杂的人物关系和细致的交互,导致抽取结果不准确、不完整。
- CREFT采用序列多智能体框架,利用知识蒸馏和迭代细化,逐步构建和完善人物关系网络。
- 实验表明,CREFT在韩剧数据集上显著优于单智能体LLM基线,提升了人物关系抽取的准确性和完整性。
📝 摘要(中文)
理解复杂的人物关系对于叙事分析和高效的剧本评估至关重要,但现有的抽取方法通常难以处理具有细致交互的长篇叙事。为了解决这个挑战,我们提出了CREFT,一种新颖的序列框架,利用专门的大型语言模型(LLM)智能体。首先,CREFT通过知识蒸馏构建一个基础人物关系图,然后迭代地细化人物构成、关系抽取、角色识别和群体分配。在精心策划的韩剧数据集上的实验表明,CREFT在准确性和完整性方面都显著优于单智能体LLM基线。通过系统地可视化人物网络,CREFT简化了叙事理解并加速了剧本审查,为娱乐、出版和教育领域提供了巨大的好处。
🔬 方法详解
问题定义:论文旨在解决长篇叙事作品中人物关系抽取的问题。现有方法,特别是基于单智能体LLM的方法,难以捕捉人物之间复杂和细微的互动,导致关系抽取不准确,关系网络不完整。这限制了对叙事的深入理解和剧本的有效评估。
核心思路:论文的核心思路是将人物关系抽取任务分解为多个子任务,并为每个子任务设计专门的LLM智能体。通过序列化地执行这些子任务,并利用知识蒸馏和迭代细化,逐步构建和完善人物关系网络。这种多智能体协作的方式能够更好地捕捉人物之间的复杂关系。
技术框架:CREFT框架包含以下主要模块:1) 基础人物关系图构建:通过知识蒸馏,从预训练的LLM中提取知识,构建初始的人物关系图。2) 人物构成细化:利用LLM智能体识别和修正人物列表,确保人物信息的准确性。3) 关系抽取:使用专门的LLM智能体抽取人物之间的关系,并进行分类。4) 角色识别:识别人物在叙事中的角色和功能。5) 群体分配:将人物分配到不同的群体或派系中。这些模块以序列化的方式执行,每个模块的输出作为下一个模块的输入,从而实现迭代细化。
关键创新:CREFT的关键创新在于其序列多智能体框架。与传统的单智能体方法相比,CREFT能够更好地分解复杂的人物关系抽取任务,并利用专门的LLM智能体处理不同的子任务。此外,CREFT还采用了知识蒸馏和迭代细化的策略,进一步提高了人物关系抽取的准确性和完整性。
关键设计:论文中没有详细描述关键的参数设置、损失函数或网络结构等技术细节。但可以推断,每个LLM智能体都经过微调,以适应其特定的子任务。知识蒸馏过程可能涉及使用大型预训练LLM作为教师模型,并使用较小的LLM作为学生模型,通过最小化它们输出之间的差异来传递知识。迭代细化过程可能涉及使用某种置信度阈值来决定是否需要进一步细化人物关系。
🖼️ 关键图片
📊 实验亮点
实验结果表明,CREFT在韩剧数据集上显著优于单智能体LLM基线。具体来说,CREFT在人物关系抽取的准确性和完整性方面都取得了显著提升。通过可视化人物网络,CREFT能够更清晰地展示人物之间的关系,从而简化叙事理解和加速剧本审查。
🎯 应用场景
CREFT可应用于娱乐、出版和教育等领域。在娱乐领域,它可以帮助编剧和制片人更好地理解人物关系,优化剧本创作。在出版领域,它可以用于分析文学作品中的人物关系,提高阅读理解的效率。在教育领域,它可以作为一种辅助工具,帮助学生更好地理解和分析叙事作品。
📄 摘要(原文)
Understanding complex character relations is crucial for narrative analysis and efficient script evaluation, yet existing extraction methods often fail to handle long-form narratives with nuanced interactions. To address this challenge, we present CREFT, a novel sequential framework leveraging specialized Large Language Model (LLM) agents. First, CREFT builds a base character graph through knowledge distillation, then iteratively refines character composition, relation extraction, role identification, and group assignments. Experiments on a curated Korean drama dataset demonstrate that CREFT significantly outperforms single-agent LLM baselines in both accuracy and completeness. By systematically visualizing character networks, CREFT streamlines narrative comprehension and accelerates script review -- offering substantial benefits to the entertainment, publishing, and educational sectors.