RADAR: Reasoning as Discrimination with Aligned Representations for LLM-based Knowledge Graph Reasoning
作者: Bo Xue, Yuan Jin, Luoyi Fu, Jiaxin Ding, Xinbing Wang
分类: cs.CL
发布日期: 2026-02-25
💡 一句话要点
提出RADAR,通过对齐表示的判别推理增强LLM在知识图谱推理中的能力
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 知识图谱推理 大型语言模型 判别式学习 强化学习 表示学习 链接预测 三元组分类
📋 核心要点
- 现有基于LLM的知识图谱推理方法易于记忆表面共现,缺乏对关系语义的真正理解,导致泛化能力不足。
- RADAR将知识图谱推理重塑为判别式实体选择,通过强化学习增强实体表示的可分离性,从而进行关系推理。
- 实验表明,RADAR在链接预测和三元组分类任务上优于现有LLM基线,并显著提升了中间表示的关系推理能力。
📝 摘要(中文)
知识图谱推理(KGR)旨在推断缺失的事实。最近的研究越来越多地利用大型语言模型(LLM)的语义先验和推理能力。然而,目前流行的生成范式容易记忆表面级别的共现关系,而不是学习真正的关系语义,从而限制了分布外的泛化能力。为了解决这个问题,我们提出了RADAR,它将KGR从生成式模式匹配重新定义为判别式关系推理。我们将KGR重塑为判别式实体选择,其中强化学习强制执行超出token-likelihood模仿的相对实体可分离性。利用这种可分离性,推理直接在表示空间中进行,确保与判别式优化的一致性,并绕过生成引起的幻觉。在四个基准测试中,RADAR在链接预测和三元组分类上比强大的LLM基线实现了5-6%的相对收益,同时中间表示中与任务相关的互信息增加了62.9%,表明了更鲁棒和可转移的关系推理。
🔬 方法详解
问题定义:知识图谱推理旨在根据已知的知识图谱推断缺失的事实。现有基于大型语言模型的方法主要采用生成式范式,即根据给定的头实体和关系生成尾实体。这种方法容易受到表面共现模式的影响,导致模型过度依赖记忆,而忽略了关系本身的语义信息,从而在分布外数据上表现不佳。
核心思路:RADAR的核心思路是将知识图谱推理从生成式任务转化为判别式任务。具体来说,模型不再生成尾实体,而是从候选实体集合中选择最合适的尾实体。通过这种方式,模型需要学习区分不同实体之间的关系,从而更好地理解关系语义。此外,RADAR还利用强化学习来进一步增强实体表示的可分离性,使得模型更容易区分不同的实体。
技术框架:RADAR的整体框架包括以下几个主要模块:1) 实体表示模块:将知识图谱中的实体和关系嵌入到低维向量空间中。2) 判别器模块:用于评估候选尾实体与给定头实体和关系的匹配程度。3) 强化学习模块:用于优化实体表示,使得不同实体之间的表示更加可分离。推理过程直接在表示空间中进行,避免了生成过程可能引入的幻觉。
关键创新:RADAR最重要的技术创新点在于将知识图谱推理重塑为判别式任务,并利用强化学习来增强实体表示的可分离性。与传统的生成式方法相比,RADAR能够更好地学习关系语义,从而提高模型的泛化能力。此外,RADAR直接在表示空间中进行推理,避免了生成过程可能引入的幻觉。
关键设计:RADAR的关键设计包括:1) 使用Transformer网络来学习实体和关系的表示。2) 使用Margin Ranking Loss作为判别器的损失函数,鼓励模型将正确的尾实体排在候选实体的前面。3) 使用REINFORCE算法来训练强化学习模块,奖励模型选择正确的尾实体,惩罚模型选择错误的尾实体。强化学习的目标是最大化正确实体和错误实体之间的表示距离。
🖼️ 关键图片
📊 实验亮点
RADAR在四个知识图谱推理基准测试中取得了显著的性能提升。在链接预测和三元组分类任务上,RADAR比强大的LLM基线实现了5-6%的相对收益。更重要的是,RADAR显著提高了中间表示中与任务相关的互信息,提升幅度高达62.9%,表明RADAR能够学习到更鲁棒和可转移的关系推理能力。
🎯 应用场景
RADAR可应用于多种知识图谱相关的任务,例如智能问答、推荐系统、信息检索等。通过提高知识图谱推理的准确性和泛化能力,RADAR可以帮助这些应用更好地理解用户意图,提供更准确、更个性化的服务。此外,RADAR还可以用于知识图谱的自动构建和补全,从而提高知识图谱的质量和覆盖范围。
📄 摘要(原文)
Knowledge graph reasoning (KGR) infers missing facts, with recent advances increasingly harnessing the semantic priors and reasoning abilities of Large Language Models (LLMs). However, prevailing generative paradigms are prone to memorizing surface-level co-occurrences rather than learning genuine relational semantics, limiting out-of-distribution generalization. To address this, we propose RADAR, which reformulates KGR from generative pattern matching to discriminative relational reasoning. We recast KGR as discriminative entity selection, where reinforcement learning enforces relative entity separability beyond token-likelihood imitation. Leveraging this separability, inference operates directly in representation space, ensuring consistency with the discriminative optimization and bypassing generation-induced hallucinations. Across four benchmarks, RADAR achieves 5-6% relative gains on link prediction and triple classification over strong LLM baselines, while increasing task-relevant mutual information in intermediate representations by 62.9%, indicating more robust and transferable relational reasoning.