Improve Decoding Factuality by Token-wise Cross Layer Entropy of Large Language Models
作者: Jialiang Wu, Yi Shen, Sijia Liu, Yi Tang, Sen Song, Xiaoyi Wang, Longjun Cai
分类: cs.CL, cs.AI
发布日期: 2025-02-05
备注: NAACL 2025 Findings
💡 一句话要点
提出跨层熵增强解码(END)方法,提升大语言模型生成内容的真实性。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大语言模型 幻觉问题 解码方法 跨层熵 事实性
📋 核心要点
- 大型语言模型存在幻觉问题,即使具备相关知识,仍可能生成不准确或虚构的内容。
- 论文提出跨层熵增强解码(END)方法,通过量化token的事实知识需求,调整预测分布以提升真实性。
- 实验表明,END能显著提高生成内容的真实性和信息量,同时保持问答准确性,无需额外训练。
📝 摘要(中文)
大型语言模型(LLMs)虽然能力强大,但经常面临幻觉问题,即在拥有正确知识的情况下,生成不准确或捏造的内容。本文将隐状态预测变化与输出事实性之间的相关性探索扩展到更深层次的token级别。基于此,我们提出了一种跨层熵增强解码(END)方法,该方法无需额外训练即可缓解幻觉。END利用跨层的内部概率变化来单独量化每个候选token所需的事实知识,并调整最终预测分布,以优先考虑具有更高事实性的token。在幻觉和问答基准测试上的实验表明,END显著提高了生成内容的真实性和信息量,同时保持了强大的问答准确性。此外,我们的工作为理解内在知识和输出事实性之间的相关性提供了更深层次的视角。
🔬 方法详解
问题定义:大型语言模型在生成文本时,即使拥有正确的知识,也经常会产生幻觉,即生成不准确或虚构的内容。现有的解码方法难以有效区分和抑制这些虚假信息,导致生成结果的可信度降低。
核心思路:论文的核心思路是利用大语言模型内部不同层之间的概率变化来衡量每个token的事实性。作者认为,如果一个token的预测概率在不同层之间变化较大,则表明模型对该token的确定性较低,可能存在幻觉风险。因此,通过计算跨层熵,可以量化每个token的事实知识需求。
技术框架:END方法的整体框架是在标准的解码过程中,引入一个跨层熵计算模块。该模块计算每个候选token在不同层之间的概率分布的熵值,作为该token的事实性指标。然后,根据该指标调整最终的预测分布,优先选择具有较高事实性的token。具体流程包括:1)获取每个token在不同层的预测概率;2)计算跨层熵;3)根据跨层熵调整预测分布;4)选择概率最高的token作为输出。
关键创新:该方法最重要的创新点在于利用了模型内部的跨层信息来评估token的事实性。与传统的解码方法相比,END方法不需要额外的训练数据或知识库,而是直接利用模型自身的预测信息来提升生成结果的真实性。这种方法具有更高的效率和通用性。
关键设计:END方法的关键设计在于跨层熵的计算方式和预测分布的调整策略。跨层熵的计算采用标准的熵公式,但输入是每个token在不同层的预测概率分布。预测分布的调整策略采用加权平均的方式,将原始预测概率和基于跨层熵的事实性概率进行加权平均,权重系数可以根据实验结果进行调整。
🖼️ 关键图片
📊 实验亮点
实验结果表明,END方法在多个幻觉和问答基准测试上都取得了显著的提升。例如,在某些幻觉基准测试上,END方法可以将幻觉率降低超过10%。同时,END方法在保持问答准确性的前提下,显著提高了生成内容的真实性和信息量。
🎯 应用场景
该研究成果可广泛应用于需要高可信度文本生成的场景,例如新闻报道、科学写作、法律文件生成等。通过提高生成内容的真实性和信息量,可以减少错误信息的传播,提升用户体验,并为下游任务提供更可靠的输入。
📄 摘要(原文)
Despite their impressive capacities, Large language models (LLMs) often struggle with the hallucination issue of generating inaccurate or fabricated content even when they possess correct knowledge. In this paper, we extend the exploration of the correlation between hidden-state prediction changes and output factuality into a deeper, token-wise level. Based on the insights , we propose cross-layer Entropy eNhanced Decoding (END), a decoding method that mitigates hallucinations without requiring extra training. END leverages inner probability changes across layers to individually quantify the factual knowledge required for each candidate token, and adjusts the final predicting distribution to prioritize tokens with higher factuality. Experiments on both hallucination and QA benchmarks demonstrate that END significantly enhances the truthfulness and informativeness of generated content while maintaining robust QA accuracy. Moreover, our work provides a deeper perspective on understanding the correlations between inherent knowledge and output factuality.