ContextClaim: A Context-Driven Paradigm for Verifiable Claim Detection
作者: Yufeng Li, Rrubaa Panchendrarajan, Arkaitz Zubiaga
分类: cs.CL
发布日期: 2026-03-31
💡 一句话要点
提出ContextClaim,一种上下文驱动的可验证声明检测范式,提升事实核查的早期过滤效果。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 可验证声明检测 事实核查 上下文学习 信息检索 大型语言模型
📋 核心要点
- 现有可验证声明检测方法仅依赖声明文本,忽略了实体和事件上下文信息,限制了检测效果。
- ContextClaim通过提取实体、检索维基百科信息并生成上下文摘要,将证据检索提前到检测阶段。
- 实验表明,上下文增强能提升可验证声明检测,但效果受领域、模型和学习设置影响。
📝 摘要(中文)
可验证声明检测旨在判断一个声明是否表达了一个原则上可以根据外部证据评估的事实性陈述。作为自动化事实核查的早期过滤阶段,它在减轻下游验证组件的负担方面起着重要作用。然而,现有的声明检测方法,无论是基于可检查性还是可验证性,都仅仅依赖于声明文本本身。对于可验证声明检测而言,这是一个显著的局限性,因为确定一个声明是否可检查可能受益于了解它所指的实体和事件,以及是否存在支持验证的相关信息。受到证据检索在后期声明验证中作用的启发,我们提出了上下文驱动的声明检测(ContextClaim),这是一种将检索提前到检测阶段的范式。ContextClaim从输入声明中提取实体提及,从维基百科检索相关信息作为结构化知识源,并使用大型语言模型为下游分类生成简洁的上下文摘要。我们在涵盖不同主题和文本类型的两个数据集上评估了ContextClaim,即CheckThat! 2022 COVID-19 Twitter数据集和PoliClaim政治辩论数据集,包括微调、零样本和少样本设置下的encoder-only和decoder-only模型。结果表明,上下文增强可以改善可验证声明检测,尽管其有效性因领域、模型架构和学习设置而异。通过组件分析、人工评估和错误分析,我们进一步研究了检索到的上下文在何时以及为何有助于更可靠的可验证性判断。
🔬 方法详解
问题定义:论文旨在解决可验证声明检测问题,即判断一个声明是否可以被外部证据验证。现有方法仅依赖于声明文本本身,忽略了声明所涉及的实体、事件以及相关的背景知识,这导致检测的准确性受到限制,尤其是在需要外部知识才能判断声明是否可验证的情况下。
核心思路:论文的核心思路是利用上下文信息来增强可验证声明检测。通过从声明中提取实体,并从外部知识库(如维基百科)检索相关信息,为声明提供更丰富的上下文,从而帮助模型更准确地判断声明是否可验证。这种方法借鉴了证据检索在后期声明验证中的作用,将其提前到检测阶段。
技术框架:ContextClaim的整体框架包括以下几个主要步骤:1) 实体提取:从输入的声明文本中提取实体提及。2) 信息检索:使用提取的实体作为查询,从维基百科等知识库中检索相关信息。3) 上下文摘要:利用大型语言模型(LLM)对检索到的信息进行摘要,生成简洁的上下文描述。4) 声明分类:将原始声明文本和生成的上下文摘要输入到分类模型中,判断声明是否可验证。
关键创新:ContextClaim的关键创新在于将上下文信息引入到可验证声明检测中。与现有方法不同,ContextClaim不再仅仅依赖于声明文本本身,而是通过检索和摘要外部知识,为声明提供更全面的上下文信息,从而提高检测的准确性。这种方法将证据检索提前到检测阶段,是一种新的范式。
关键设计:论文中涉及的关键设计包括:1) 使用预训练的实体识别模型进行实体提取。2) 使用维基百科作为外部知识库,通过实体链接进行信息检索。3) 使用大型语言模型(如BART、T5)对检索到的信息进行摘要,生成简洁的上下文描述。4) 使用不同的分类模型(包括encoder-only和decoder-only模型)进行声明分类,并尝试了微调、零样本和少样本等不同的学习设置。
🖼️ 关键图片
📊 实验亮点
实验结果表明,ContextClaim在CheckThat! 2022 COVID-19 Twitter数据集和PoliClaim政治辩论数据集上均取得了提升。具体而言,在某些设置下,ContextClaim相较于基线方法,在可验证声明检测的准确率和F1值上均有显著提高。论文还通过组件分析、人工评估和错误分析,深入探讨了上下文信息在不同场景下的作用。
🎯 应用场景
ContextClaim可应用于自动化事实核查系统,作为早期过滤阶段,减少需要人工核查的声明数量。该技术还可用于新闻媒体、社交媒体平台等,帮助识别和标记可能包含虚假信息的声明,从而提高信息的可信度,减少虚假信息的传播。
📄 摘要(原文)
Verifiable claim detection asks whether a claim expresses a factual statement that can, in principle, be assessed against external evidence. As an early filtering stage in automated fact-checking, it plays an important role in reducing the burden on downstream verification components. However, existing approaches to claim detection, whether based on check-worthiness or verifiability, rely solely on the claim text itself. This is a notable limitation for verifiable claim detection in particular, where determining whether a claim is checkable may benefit from knowing what entities and events it refers to and whether relevant information exists to support verification. Inspired by the established role of evidence retrieval in later-stage claim verification, we propose Context-Driven Claim Detection (ContextClaim), a paradigm that advances retrieval to the detection stage. ContextClaim extracts entity mentions from the input claim, retrieves relevant information from Wikipedia as a structured knowledge source, and employs large language models to produce concise contextual summaries for downstream classification. We evaluate ContextClaim on two datasets covering different topics and text genres, the CheckThat! 2022 COVID-19 Twitter dataset and the PoliClaim political debate dataset, across encoder-only and decoder-only models under fine-tuning, zero-shot, and few-shot settings. Results show that context augmentation can improve verifiable claim detection, although its effectiveness varies across domains, model architectures, and learning settings. Through component analysis, human evaluation, and error analysis, we further examine when and why the retrieved context contributes to more reliable verifiability judgments.