HCRE: LLM-based Hierarchical Classification for Cross-Document Relation Extraction with a Prediction-then-Verification Strategy

📄 arXiv: 2604.07937v1 📥 PDF

作者: Guoqi Ma, Liang Zhang, Hongyao Tu, Hao Fu, Hui Li, Yujie Lin, Longyue Wang, Weihua Luo, Jinsong Su

分类: cs.CL

发布日期: 2026-04-09

备注: ACL 2026 Findings


💡 一句话要点

提出基于LLM的分层分类模型HCRE,解决跨文档关系抽取中关系数量过多的挑战。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 跨文档关系抽取 大型语言模型 分层分类 预测-验证 知识图谱

📋 核心要点

  1. 现有跨文档关系抽取方法依赖小型语言模型,其语言理解能力不足,难以有效处理复杂关系。
  2. HCRE模型利用大型语言模型和分层关系树,逐层缩小关系范围,降低了LLM的推理难度。
  3. 通过预测-验证策略,HCRE模型在每一层进行多视角验证,有效抑制了分层分类中可能出现的错误传播。

📝 摘要(中文)

跨文档关系抽取(RE)旨在识别位于不同文档中的头实体和尾实体之间的关系。现有方法通常采用“小型语言模型(SLM)+分类器”的范式。然而,SLM有限的语言理解能力阻碍了性能的进一步提升。本文初步研究了大型语言模型(LLM)在跨文档RE中的性能。尽管LLM具有大量的参数,但我们的研究结果表明,LLM并没有始终超越现有的SLM。进一步的分析表明,性能不佳主要归因于大量预定义关系带来的挑战。为了克服这个问题,我们提出了一个基于LLM的跨文档RE分层分类模型(HCRE),它由两个核心组件组成:1)用于关系预测的LLM;2)从预定义关系集中导出的分层关系树。该树使LLM能够执行分层分类,其中目标关系逐层推断。由于子节点的数量远小于整个预定义关系集的大小,因此分层关系树显著减少了LLM在推理过程中需要考虑的关系选项的数量。然而,分层分类引入了跨层错误传播的风险。为了缓解这个问题,我们提出了一种预测-验证推理策略,通过在每一层进行多视角验证来提高预测的可靠性。大量的实验表明,HCRE优于现有的基线,验证了其有效性。

🔬 方法详解

问题定义:跨文档关系抽取旨在识别不同文档中实体间的关系。现有方法依赖小型语言模型,但其语言理解能力有限,难以处理大量预定义关系带来的挑战,导致性能瓶颈。直接使用大型语言模型进行关系抽取,效果提升并不明显,原因在于关系数量过多,LLM难以有效区分。

核心思路:论文的核心思路是利用分层关系树,将复杂的扁平关系分类问题转化为多个简单的层级分类问题。通过逐层缩小关系范围,降低了LLM在每个阶段需要考虑的关系数量,从而提高了分类的准确性和效率。同时,引入预测-验证机制,减少错误传播。

技术框架:HCRE模型包含两个主要组件:LLM和分层关系树。首先,基于预定义的关系集合构建分层关系树。然后,利用LLM进行关系预测,在每一层级,LLM根据当前节点选择最可能的子节点。为了提高预测的可靠性,采用预测-验证策略,即在每一层进行多视角验证,选择置信度最高的预测结果。

关键创新:HCRE模型的关键创新在于将分层分类和预测-验证策略相结合,应用于跨文档关系抽取任务。分层分类降低了LLM的推理难度,预测-验证策略抑制了错误传播。这种方法充分利用了LLM的语言理解能力,同时克服了关系数量过多的挑战。

关键设计:分层关系树的构建方式直接影响模型的性能。论文中具体如何构建关系树,以及如何定义父节点和子节点之间的关系,是关键的设计细节。此外,预测-验证策略中,如何选择多个视角进行验证,以及如何融合不同视角的预测结果,也是重要的技术细节。论文中LLM使用的具体模型,以及prompt的设计,也会影响最终的性能。这些细节在论文中可能有所描述,需要进一步查阅论文原文。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,HCRE模型在跨文档关系抽取任务上优于现有基线模型,验证了其有效性。具体的性能提升幅度需要在论文中查找。分层分类和预测-验证策略的结合,显著提高了关系抽取的准确性和效率。消融实验可以进一步验证各个模块的贡献。

🎯 应用场景

该研究成果可应用于知识图谱构建、信息检索、智能问答等领域。通过准确抽取跨文档的实体关系,可以构建更全面、更准确的知识图谱,提升信息检索的效率和准确性,并为智能问答系统提供更可靠的知识来源。未来,该方法有望应用于金融、医疗等领域的知识发现和决策支持。

📄 摘要(原文)

Cross-document relation extraction (RE) aims to identify relations between the head and tail entities located in different documents. Existing approaches typically adopt the paradigm of ``\textit{Small Language Model (SLM) + Classifier}''. However, the limited language understanding ability of SLMs hinders further improvement of their performance. In this paper, we conduct a preliminary study to explore the performance of Large Language Models (LLMs) in cross-document RE. Despite their extensive parameters, our findings indicate that LLMs do not consistently surpass existing SLMs. Further analysis suggests that the underperformance is largely attributed to the challenges posed by the numerous predefined relations. To overcome this issue, we propose an LLM-based \underline{H}ierarchical \underline{C}lassification model for cross-document \underline{RE} (HCRE), which consists of two core components: 1) an LLM for relation prediction and 2) a \textit{hierarchical relation tree} derived from the predefined relation set. This tree enables the LLM to perform hierarchical classification, where the target relation is inferred level by level. Since the number of child nodes is much smaller than the size of the entire predefined relation set, the hierarchical relation tree significantly reduces the number of relation options that LLM needs to consider during inference. However, hierarchical classification introduces the risk of error propagation across levels. To mitigate this, we propose a \textit{prediction-then-verification} inference strategy that improves prediction reliability through multi-view verification at each level. Extensive experiments show that HCRE outperforms existing baselines, validating its effectiveness.