Addressing Hallucinations in Language Models with Knowledge Graph Embeddings as an Additional Modality
作者: Viktoriia Chekalina, Anton Razzhigaev, Elizaveta Goncharova, Andrey Kuznetsov
分类: cs.CL, cs.AI
发布日期: 2024-11-18 (更新: 2025-01-14)
💡 一句话要点
提出一种基于知识图谱嵌入的LLM增强方法,以减少幻觉问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 知识图谱嵌入 幻觉减少 适配器 多模态融合
📋 核心要点
- 大型语言模型存在生成与事实不符内容的“幻觉”问题,降低了其可靠性。
- 该论文提出将知识图谱嵌入作为附加模态融入LLM,通过适配器将KG信息注入模型,无需外部检索。
- 实验表明,该方法在多个数据集上有效减少了LLM的幻觉,提高了事实准确性,且无需微调LLM本身。
📝 摘要(中文)
本文提出了一种通过整合知识图谱(KG)作为附加模态来减少大型语言模型(LLM)中幻觉的方法。该方法将输入文本转换为KG嵌入集合,并使用适配器将这些嵌入集成到语言模型空间中,无需依赖外部检索过程。为了实现这一点,我们创建了WikiEntities数据集,其中包含超过300万个维基百科文本,并标注了来自Wikidata的实体以及来自PyTorch-BigGraph的相应嵌入。该数据集为训练实体链接模型以及使用专用适配器将所描述的方法应用于各种LLM提供了宝贵的资源。我们的方法不需要对语言模型本身进行微调;相反,我们只训练适配器。这确保了模型在其他任务上的性能不受影响。我们使用该数据集训练了Mistral 7B、LLaMA 2-7B (chat)和LLaMA 3-8B (instruct)模型的适配器,并证明了我们的方法提高了在HaluEval、True-False基准和FEVER数据集上的性能。结果表明,将KG作为一种新的模态可以有效地减少幻觉并提高语言模型的事实准确性,而无需外部检索。
🔬 方法详解
问题定义:大型语言模型(LLM)在生成文本时,经常会出现“幻觉”现象,即生成与事实不符或无法验证的信息。现有方法通常依赖于外部知识检索,增加了计算复杂性,并且检索到的知识可能与上下文不一致。因此,如何有效地将知识融入LLM,减少幻觉,同时避免外部检索的开销,是一个重要的挑战。
核心思路:该论文的核心思路是将知识图谱(KG)的嵌入表示作为一种附加模态,直接融入到LLM中。通过将输入文本中的实体链接到知识图谱,并利用预训练的KG嵌入,为LLM提供额外的知识信息。这种方法避免了外部检索,并且能够更好地将知识与上下文融合。
技术框架:整体框架包括以下几个主要步骤:1) 实体链接:将输入文本中的实体链接到知识图谱(Wikidata)。2) KG嵌入提取:利用预训练的KG嵌入模型(PyTorch-BigGraph)提取与实体对应的嵌入向量。3) 适配器训练:设计一个适配器模块,将KG嵌入向量集成到LLM的隐藏层中。适配器负责将KG嵌入转换到与LLM隐藏层相同的维度空间,并进行融合。4) LLM推理:使用融合了KG信息的LLM进行文本生成或问答。
关键创新:该方法最重要的创新点在于,它将知识图谱嵌入作为一种新的模态,直接注入到LLM中,而无需依赖外部检索。这种方法简化了知识融合的过程,并且能够更好地将知识与上下文信息结合起来。此外,只训练适配器,避免了对LLM本身的微调,保证了模型在其他任务上的性能。
关键设计:适配器的具体结构未知,但其关键作用是将KG嵌入映射到LLM的隐藏层维度,并进行有效的融合。损失函数的设计目标是最小化生成文本与真实文本之间的差异,同时鼓励模型利用KG信息生成更准确的事实。WikiEntities数据集包含超过300万个维基百科文本,标注了Wikidata实体及其PyTorch-BigGraph嵌入,为适配器的训练提供了充足的数据。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在HaluEval、True-False基准和FEVER数据集上均取得了显著的性能提升。例如,在HaluEval数据集上,该方法能够有效减少LLM的幻觉,提高生成文本的事实准确性。与未引入KG嵌入的模型相比,该方法的性能提升幅度明显,验证了其有效性。
🎯 应用场景
该研究成果可广泛应用于需要高可信度文本生成的场景,例如智能客服、新闻写作、科学问答等。通过减少LLM的幻觉,可以提高生成内容的准确性和可靠性,增强用户信任度。未来,该方法可以扩展到其他知识图谱和语言模型,进一步提升LLM的知识融合能力。
📄 摘要(原文)
In this paper we present an approach to reduce hallucinations in Large Language Models (LLMs) by incorporating Knowledge Graphs (KGs) as an additional modality. Our method involves transforming input text into a set of KG embeddings and using an adapter to integrate these embeddings into the language model space, without relying on external retrieval processes. To facilitate this, we created WikiEntities, a dataset containing over 3 million Wikipedia texts annotated with entities from Wikidata and their corresponding embeddings from PyTorch-BigGraph. This dataset serves as a valuable resource for training Entity Linking models and adapting the described method to various LLMs using specialized adapters. Our method does not require fine-tuning of the language models themselves; instead, we only train the adapter. This ensures that the model's performance on other tasks is not affected. We trained an adapter for the Mistral 7B, LLaMA 2-7B (chat), and LLaMA 3-8B (instruct) models using this dataset and demonstrated that our approach improves performance on the HaluEval, True-False benchmarks and FEVER dataset. The results indicate that incorporating KGs as a new modality can effectively reduce hallucinations and improve the factual accuracy of language models, all without the need for external retrieval.