Joint Knowledge Base Completion and Question Answering by Combining Large Language Models and Small Language Models
作者: Yinan Liu, Dongying Lin, Sigang Luo, Xiaochun Yang, Bin Wang
分类: cs.AI
发布日期: 2026-04-07
备注: 20 pages, 11 figures
期刊: ACL 2026
💡 一句话要点
提出JCQL框架,结合大语言模型和小语言模型联合完成知识库补全与问答任务
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 知识库补全 知识库问答 大语言模型 小语言模型 联合学习 迭代增强 知识图谱
📋 核心要点
- 现有联合知识库补全与问答方法主要依赖小语言模型,忽略了大语言模型强大的推理能力。
- JCQL框架结合大语言模型和小语言模型,通过迭代方式使两个任务相互增强,提升性能。
- 实验结果表明,JCQL在知识库补全和问答任务上均超越现有基线方法,效果显著。
📝 摘要(中文)
知识库(KB)在各种应用中起着关键作用。知识库补全(KBC)和知识库问答(KBQA)是两个具有代表性的知识库相关任务,它们密切相关且本质上相互补充。因此,联合解决KBC和KBQA任务,使它们相互促进是有益的。然而,现有的研究通常依赖于小语言模型(SLM)来联合增强它们,而忽略了大语言模型(LLM)强大的推理能力。本文通过结合LLM和SLM的优势,提出了一种新的框架JCQL,该框架可以使这两个任务以迭代的方式相互增强。为了使KBC增强KBQA,我们通过将SLM训练的KBC模型作为Agent的动作,来增强基于LLM Agent的KBQA模型的推理路径,从而缓解LLM在KBQA中存在的幻觉和高计算成本问题。为了使KBQA增强KBC,我们通过利用KBQA的推理路径作为其补充训练数据,来增量地微调KBC模型,从而提高SLM在KBC中的能力。在两个公共基准数据集上的大量实验表明,JCQL在KBC和KBQA任务上都超过了所有基线。
🔬 方法详解
问题定义:论文旨在解决知识库补全(KBC)和知识库问答(KBQA)两个任务联合优化的问题。现有方法主要依赖小语言模型,无法充分利用大语言模型的推理能力,且KBC和KBQA任务之间的互补性没有得到充分利用。
核心思路:论文的核心思路是结合大语言模型(LLM)和小语言模型(SLM)的优势,设计一个迭代框架,使KBC和KBQA两个任务相互促进。具体来说,利用SLM在KBC任务上的优势来增强LLM在KBQA任务上的推理能力,同时利用KBQA任务的推理路径来提升SLM在KBC任务上的性能。
技术框架:JCQL框架包含两个主要模块:KBC增强KBQA和KBQA增强KBC。在KBC增强KBQA阶段,将SLM训练的KBC模型作为LLM Agent的动作,扩展LLM的推理路径。在KBQA增强KBC阶段,利用KBQA的推理路径作为补充训练数据,增量微调KBC模型。整个过程迭代进行,直至收敛。
关键创新:JCQL的关键创新在于:1) 提出了一个结合LLM和SLM的联合框架,充分利用了两种模型的优势;2) 设计了一种迭代增强机制,使KBC和KBQA任务能够相互促进;3) 将KBC模型作为LLM Agent的动作,有效缓解了LLM在KBQA任务中的幻觉问题。
关键设计:在KBC增强KBQA阶段,LLM Agent的动作空间包括知识库中的关系和SLM预测的关系。在KBQA增强KBC阶段,使用KBQA的推理路径作为正样本,并采用合适的负采样策略生成负样本。损失函数方面,KBC模型采用交叉熵损失,KBQA模型采用强化学习中的策略梯度方法进行优化。
🖼️ 关键图片
📊 实验亮点
实验结果表明,JCQL框架在两个公共基准数据集上均取得了显著的性能提升。在KBC任务上,JCQL的MRR指标相比最佳基线提升了超过5%。在KBQA任务上,JCQL的准确率也优于所有基线方法,证明了该框架的有效性。
🎯 应用场景
该研究成果可应用于智能问答系统、知识图谱构建、推荐系统等领域。通过提升知识库的完整性和准确性,可以提高问答系统的准确率和覆盖范围,增强推荐系统的个性化程度,并为其他知识驱动型应用提供更可靠的数据基础。未来,该方法有望应用于更复杂的知识图谱和更大规模的数据集。
📄 摘要(原文)
Knowledge Bases (KBs) play a key role in various applications. As two representative KB-related tasks, knowledge base completion (KBC) and knowledge base question answering (KBQA) are closely related and inherently complementary with each other. Thus, it will be beneficial to solve the task of joint KBC and KBQA to make them reinforce each other. However, existing studies usually rely on the small language model (SLM) to enhance them jointly, and the large language model (LLM)'s strong reasoning ability is ignored. In this paper, by combining the strengths of the LLM with the SLM, we propose a novel framework JCQL, which can make these two tasks enhance each other in an iterative manner. To make KBC enhance KBQA, we augment the LLM agent-based KBQA model's reasoning paths by incorporating an SLM-trained KBC model as an action of the agent, alleviating the LLM's hallucination and high computational costs issue in KBQA. To make KBQA enhance KBC, we incrementally fine-tune the KBC model by leveraging KBQA's reasoning paths as its supplementary training data, improving the ability of the SLM in KBC. Extensive experiments over two public benchmark data sets demonstrate that JCQL surpasses all baselines for both KBC and KBQA tasks.