Cross-Context Review: Improving LLM Output Quality by Separating Production and Review Sessions

📄 arXiv: 2603.12123v1 📥 PDF

作者: Tae-Eun Song

分类: cs.CL

发布日期: 2026-03-12

备注: 10 pages, 2 figures, 8 tables


💡 一句话要点

提出跨上下文审查(CCR)方法,通过分离生成和审查会话提升LLM输出质量

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 自我审查 上下文分离 错误检测 输出质量

📋 核心要点

  1. 大型语言模型在同一会话中进行自我审查时,容易受到先验知识和上下文的干扰,难以发现自身错误。
  2. 跨上下文审查(CCR)的核心思想是在一个全新的会话中进行审查,避免受到生成会话历史记录的影响,从而提高审查的客观性和准确性。
  3. 实验结果表明,CCR在发现错误方面的F1值显著优于同会话自我审查、重复自我审查和上下文感知子代理审查,验证了上下文分离的有效性。

📝 摘要(中文)

大型语言模型在同一会话中进行自我审查时,难以发现自身输出中的错误。本文提出了一种名为跨上下文审查(Cross-Context Review, CCR)的简单方法,该方法在全新的会话中进行审查,且无法访问生成对话的历史记录。我们进行了一项对照实验,使用包含150个注入错误的30个工件(代码、技术文档、演示文稿脚本),在四种审查条件下进行了测试:同会话自我审查(SR)、重复自我审查(SR2)、上下文感知子代理审查(SA)和跨上下文审查(CCR)。在超过360次审查中,CCR的F1值为28.6%,优于SR(24.6%, p=0.008, d=0.52)、SR2(21.7%, p<0.001, d=0.72)和SA(23.8%, p=0.004, d=0.57)。SR2的结果对于解释至关重要:在同一会话中审查两次并没有优于审查一次(p=0.11),这排除了重复作为CCR优势的解释。其优势来自于上下文分离本身。CCR适用于任何模型,无需基础设施,且仅需一个额外的会话。

🔬 方法详解

问题定义:大型语言模型在生成内容后,通常需要进行自我审查以纠正错误。然而,在同一会话中进行审查时,模型容易受到生成过程中的上下文信息的影响,导致难以发现自身存在的错误,尤其是一些逻辑性或事实性错误。现有方法,如重复自我审查或使用子代理进行审查,仍然无法有效解决这个问题,因为它们仍然依赖于相同的上下文环境。

核心思路:本文的核心思路是通过分离生成和审查的上下文来提高审查的有效性。具体来说,跨上下文审查(CCR)方法在一个全新的会话中进行审查,审查过程无法访问生成会话的历史记录。这样做的目的是消除生成过程中的认知偏差,使模型能够更客观地评估生成内容的质量。

技术框架:CCR方法的整体框架非常简单,包括两个独立的会话:生成会话和审查会话。在生成会话中,模型根据给定的提示生成内容。然后,将生成的内容输入到审查会话中,审查会话中的模型负责评估内容的质量并发现错误。审查会话与生成会话完全隔离,无法访问生成会话的历史记录。

关键创新:CCR最重要的技术创新点在于上下文分离。与传统的自我审查方法不同,CCR通过创建一个全新的、独立的审查环境,消除了生成过程中的认知偏差,从而提高了审查的客观性和准确性。这种上下文分离的思想可以应用于各种不同的审查任务,例如代码审查、文档审查和对话审查。

关键设计:CCR方法的关键设计在于确保生成会话和审查会话之间的完全隔离。这意味着审查会话不能访问生成会话的任何信息,包括提示、生成过程中的中间结果和对话历史记录。为了实现这一点,可以将生成的内容复制到一个新的会话中,并确保新的会话没有访问原始会话的权限。此外,可以使用不同的模型或不同的模型参数进行生成和审查,以进一步减少认知偏差。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

实验结果表明,跨上下文审查(CCR)方法在发现错误方面的F1值为28.6%,显著优于同会话自我审查(SR, 24.6%)、重复自我审查(SR2, 21.7%)和上下文感知子代理审查(SA, 23.8%)。统计显著性检验表明,CCR的性能提升具有统计意义(p<0.01)。此外,实验还表明,重复自我审查并不能显著提高审查效果,这进一步验证了上下文分离的重要性。

🎯 应用场景

该研究成果可广泛应用于各种需要大型语言模型生成内容的场景,例如代码生成、文档撰写、报告生成、对话生成等。通过采用跨上下文审查方法,可以显著提高生成内容的质量,减少错误,并提高用户满意度。该方法尤其适用于对准确性要求较高的应用场景,例如金融报告生成、法律文件撰写等。

📄 摘要(原文)

Large language models struggle to catch errors in their own outputs when the review happens in the same session that produced them. This paper introduces Cross-Context Review (CCR), a straightforward method where the review is conducted in a fresh session with no access to the production conversation history. We ran a controlled experiment: 30 artifacts (code, technical documents, presentation scripts) with 150 injected errors, tested under four review conditions -- same-session Self-Review (SR), repeated Self-Review (SR2), context-aware Subagent Review (SA), and Cross-Context Review (CCR). Over 360 reviews, CCR reached an F1 of 28.6%, outperforming SR (24.6%, p=0.008, d=0.52), SR2 (21.7%, p<0.001, d=0.72), and SA (23.8%, p=0.004, d=0.57). The SR2 result matters most for interpretation: reviewing twice in the same session did not beat reviewing once (p=0.11), which rules out repetition as an explanation for CCR's advantage. The benefit comes from context separation itself. CCR works with any model, needs no infrastructure, and costs only one extra session.