LLM-Assisted Causal Structure Disambiguation and Factor Extraction for Legal Judgment Prediction
作者: Yuzhi Liang, Lixiang Ma, Xinrong Zhu
分类: cs.CL
发布日期: 2026-03-12
💡 一句话要点
提出LLM辅助的因果结构消歧和要素提取方法,用于提升法律判决预测的准确性和鲁棒性。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 法律判决预测 因果推理 大型语言模型 法律要素提取 因果结构发现
📋 核心要点
- 现有法律判决预测方法依赖于案件事实与判决结果的统计相关性,缺乏对法律要素和因果逻辑的建模,易受虚假相关性影响。
- 本文提出一种结合LLM先验知识和统计因果发现的增强因果推理框架,用于更准确地提取法律要素并消歧因果结构。
- 实验结果表明,该方法在多个基准数据集上显著优于现有方法,尤其在区分混淆罪名方面表现突出,提升了预测准确性和鲁棒性。
📝 摘要(中文)
本文提出了一种增强的因果推理框架,用于解决法律判决预测(LJP)中因果关系建模不足的问题。该框架结合了大型语言模型(LLM)先验知识和统计因果发现方法。首先,设计了一种由粗到精的混合提取机制,结合统计抽样和LLM语义推理,以准确识别和提纯标准的法律构成要素。其次,引入LLM辅助的因果结构消歧机制,利用LLM作为约束先验知识库,对模糊的因果方向进行概率评估和剪枝,生成符合法律规范的候选因果图。最后,通过生成的因果图显式地约束文本注意力强度,构建了一个因果感知的判决预测模型。在LEVEN、QA和CAIL等多个基准数据集上的大量实验表明,该方法在预测准确性和鲁棒性方面均显著优于最先进的基线方法,尤其是在区分混淆罪名方面。
🔬 方法详解
问题定义:现有的法律判决预测方法主要依赖于预训练语言模型(PLMs)学习案件事实和判决结果之间的统计相关性,缺乏对法律构成要素和潜在因果逻辑的显式建模。这导致模型容易学习到虚假相关性,从而降低了模型的鲁棒性。此外,现有的因果法律判决预测方法在实际法律文本中面临两个关键瓶颈:法律要素提取不准确且噪声严重,以及由于稀疏特征下的马尔可夫等价性导致因果结构发现存在显著不确定性。
核心思路:本文的核心思路是利用大型语言模型(LLM)的强大语义理解和推理能力,作为先验知识来指导因果结构的发现和法律要素的提取。通过结合LLM的知识和统计因果发现方法,可以更准确地识别法律构成要素,并消除因果结构中的歧义,从而提高法律判决预测的准确性和鲁棒性。这种方法旨在弥合统计相关性和因果关系之间的差距,使模型能够更好地理解法律推理过程。
技术框架:该方法包含以下几个主要模块:1) 混合法律要素提取:采用由粗到精的混合提取机制,结合统计抽样和LLM语义推理,以准确识别和提纯标准的法律构成要素。2) LLM辅助的因果结构消歧:利用LLM作为约束先验知识库,对模糊的因果方向进行概率评估和剪枝,生成符合法律规范的候选因果图。3) 因果感知的判决预测:通过生成的因果图显式地约束文本注意力强度,构建一个因果感知的判决预测模型。整体流程是从法律文本中提取要素,利用LLM消歧因果结构,最后利用因果图指导判决预测。
关键创新:该方法最重要的技术创新点在于将LLM的先验知识引入到因果结构发现和法律要素提取中。与传统的统计因果发现方法相比,该方法能够利用LLM的语义理解能力来消除因果结构中的歧义,并提高法律要素提取的准确性。此外,该方法还提出了一种混合提取机制,结合了统计抽样和LLM语义推理,进一步提高了法律要素提取的质量。
关键设计:在法律要素提取方面,采用了由粗到精的策略,首先通过统计方法筛选候选要素,然后利用LLM进行语义验证和过滤。在因果结构消歧方面,设计了一种基于LLM的概率评估和剪枝机制,利用LLM对候选因果方向进行评分,并根据评分结果进行剪枝,最终生成符合法律规范的因果图。在判决预测方面,利用生成的因果图来约束文本注意力强度,使模型更加关注与判决相关的关键要素。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在LEVEN、QA和CAIL等多个基准数据集上显著优于最先进的基线方法。尤其是在区分混淆罪名方面,该方法表现突出,表明其能够更准确地捕捉法律文本中的细微差别。具体的性能提升数据在论文中给出,证明了该方法在预测准确性和鲁棒性方面的优势。
🎯 应用场景
该研究成果可应用于智能法律咨询、辅助量刑、案件分析等领域。通过更准确地理解法律文本中的因果关系和关键要素,可以为法律从业者提供更可靠的决策支持,提高司法效率,并减少因误判带来的损失。未来,该方法有望扩展到其他法律领域,例如合同审查、知识产权保护等。
📄 摘要(原文)
Mainstream methods for Legal Judgment Prediction (LJP) based on Pre-trained Language Models (PLMs) heavily rely on the statistical correlation between case facts and judgment results. This paradigm lacks explicit modeling of legal constituent elements and underlying causal logic, making models prone to learning spurious correlations and suffering from poor robustness. While introducing causal inference can mitigate this issue, existing causal LJP methods face two critical bottlenecks in real-world legal texts: inaccurate legal factor extraction with severe noise, and significant uncertainty in causal structure discovery due to Markov equivalence under sparse features. To address these challenges, we propose an enhanced causal inference framework that integrates Large Language Model (LLM) priors with statistical causal discovery. First, we design a coarse-to-fine hybrid extraction mechanism combining statistical sampling and LLM semantic reasoning to accurately identify and purify standard legal constituent elements. Second, to resolve structural uncertainty, we introduce an LLM-assisted causal structure disambiguation mechanism. By utilizing the LLM as a constrained prior knowledge base, we conduct probabilistic evaluation and pruning on ambiguous causal directions to generate legally compliant candidate causal graphs. Finally, a causal-aware judgment prediction model is constructed by explicitly constraining text attention intensity via the generated causal graphs. Extensive experiments on multiple benchmark datasets, including LEVEN , QA, and CAIL, demonstrate that our proposed method significantly outperforms state-of-the-art baselines in both predictive accuracy and robustness, particularly in distinguishing confusing charges.