Event Extraction in Large Language Model

📄 arXiv: 2512.19537v1 📥 PDF

作者: Bobo Li, Xudong Han, Jiang Liu, Yuzhe Ding, Liqiang Jing, Zhaoqi Zhang, Jinheng Li, Xinya Du, Fei Li, Meishan Zhang, Min Zhang, Aixin Sun, Philip S. Yu, Hao Fei

分类: cs.CL

发布日期: 2025-12-22

备注: 38 pages, 9 Figures, 5 Tables


💡 一句话要点

综述基于大语言模型的事件抽取方法,并探讨其在构建可靠事件中心系统中的作用。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 事件抽取 大型语言模型 认知支架 知识图谱 信息检索 自然语言处理 多模态学习

📋 核心要点

  1. 现有基于LLM的事件抽取方法存在幻觉、长程依赖脆弱、知识管理受限等问题,难以有效部署。
  2. 将事件抽取视为LLM解决方案的认知支架,利用事件模式、结构、链接和存储来提升LLM的可靠性。
  3. 综述涵盖了事件抽取的各个方面,包括任务、方法、架构、数据集和评估,并探讨了未来发展方向。

📝 摘要(中文)

大型语言模型(LLMs)和多模态LLMs正在改变事件抽取(EE)领域:提示和生成通常可以在零样本或少样本设置中产生结构化输出。然而,基于LLM的流程面临部署差距,包括弱约束下的幻觉、长上下文和跨文档中脆弱的时间和因果链接,以及有限的上下文窗口内的长期知识管理。我们认为,EE应该被视为一个系统组件,为以LLM为中心的解决方案提供认知支架。事件模式和槽约束为 grounding 和验证创建接口;以事件为中心的结构充当逐步推理的可控中间表示;事件链接支持基于图的RAG的关系感知检索;事件存储提供超出上下文窗口的可更新的情景和代理记忆。本综述涵盖文本和多模态环境中的EE,组织任务和分类,追溯从基于规则和神经模型到指令驱动和生成框架的方法演变,并总结公式、解码策略、架构、表示、数据集和评估。我们还回顾了跨语言、低资源和特定领域的设置,并强调了可靠的事件中心系统的开放挑战和未来方向。最后,我们概述了LLM时代的核心开放挑战和未来方向,旨在将EE从静态抽取发展为开放世界系统中结构可靠、代理就绪的感知和记忆层。

🔬 方法详解

问题定义:论文旨在解决大型语言模型在事件抽取任务中面临的挑战,包括在弱约束条件下产生幻觉、难以处理长文本中的时间因果关系、以及上下文窗口限制导致的知识管理问题。现有方法难以构建可靠的、面向开放世界的事件中心系统。

核心思路:论文的核心思路是将事件抽取(EE)视为一个系统组件,为以LLM为中心的解决方案提供认知支架。通过事件模式和槽约束进行 grounding 和验证,利用事件中心结构进行逐步推理,使用事件链接支持关系感知检索,并借助事件存储实现长期记忆。

技术框架:该综述没有提出具体的模型架构,而是从系统层面阐述了如何利用事件抽取技术来增强LLM的能力。其框架包括:1) 事件模式和槽约束:用于 grounding 和验证;2) 事件中心结构:作为可控的中间表示,支持逐步推理;3) 事件链接:支持基于图的RAG的关系感知检索;4) 事件存储:提供超出上下文窗口的可更新记忆。

关键创新:论文的关键创新在于提出了将事件抽取从一个独立的任务转变为LLM认知增强组件的视角。这种视角强调了事件抽取在构建可靠、可解释、可扩展的LLM应用中的重要性。

关键设计:论文没有涉及具体的模型设计细节,而是侧重于宏观层面的系统设计。关键设计包括如何定义事件模式和槽约束,如何构建事件中心结构,如何利用事件链接进行检索,以及如何设计事件存储。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该论文是一篇综述性文章,没有具体的实验结果。其亮点在于系统性地总结了基于LLM的事件抽取方法,并指出了未来研究方向,例如如何解决LLM的幻觉问题、如何处理长文本中的依赖关系、以及如何构建长期记忆。

🎯 应用场景

该研究成果可应用于智能问答、信息检索、知识图谱构建、智能客服等领域。通过构建可靠的事件中心系统,可以提升LLM在复杂场景下的推理能力和知识管理能力,从而实现更智能化的应用。

📄 摘要(原文)

Large language models (LLMs) and multimodal LLMs are changing event extraction (EE): prompting and generation can often produce structured outputs in zero shot or few shot settings. Yet LLM based pipelines face deployment gaps, including hallucinations under weak constraints, fragile temporal and causal linking over long contexts and across documents, and limited long horizon knowledge management within a bounded context window. We argue that EE should be viewed as a system component that provides a cognitive scaffold for LLM centered solutions. Event schemas and slot constraints create interfaces for grounding and verification; event centric structures act as controlled intermediate representations for stepwise reasoning; event links support relation aware retrieval with graph based RAG; and event stores offer updatable episodic and agent memory beyond the context window. This survey covers EE in text and multimodal settings, organizing tasks and taxonomy, tracing method evolution from rule based and neural models to instruction driven and generative frameworks, and summarizing formulations, decoding strategies, architectures, representations, datasets, and evaluation. We also review cross lingual, low resource, and domain specific settings, and highlight open challenges and future directions for reliable event centric systems. Finally, we outline open challenges and future directions that are central to the LLM era, aiming to evolve EE from static extraction into a structurally reliable, agent ready perception and memory layer for open world systems.