Enhancing Manufacturing Knowledge Access with LLMs and Context-aware Prompting

📄 arXiv: 2507.22619v1 📥 PDF

作者: Sebastian Monka, Irlan Grangel-González, Stefan Schmid, Lavdim Halilaj, Marc Rickart, Oliver Rudolph, Rui Dias

分类: cs.AI

发布日期: 2025-07-30

备注: European Conference on Artificial Intelligence (ECAI) 2024


💡 一句话要点

利用LLM和上下文感知提示增强制造业知识图谱的访问能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 知识图谱 SPARQL查询 上下文感知 智能制造 自然语言处理 信息检索

📋 核心要点

  1. 制造业知识图谱蕴含大量信息,但非专业人士难以通过复杂的SPARQL查询访问,阻碍了数据价值的充分利用。
  2. 论文提出利用大型语言模型(LLMs)将自然语言查询转换为SPARQL,并通过上下文感知提示,提升LLM对领域知识图谱的理解。
  3. 实验表明,提供适当的知识图谱模式上下文能显著提高LLM生成正确SPARQL查询的性能,降低“幻觉”风险。

📝 摘要(中文)

知识图谱(KGs)已经改变了制造业的数据管理方式,通过共享和结构化的概念模式,为集成不同的数据源提供了有效途径。然而,对于非专业人士来说,利用KGs的力量可能令人生畏,因为它通常需要制定复杂的SPARQL查询来检索特定信息。随着大型语言模型(LLMs)的出现,自动将自然语言查询转换为SPARQL格式的潜力越来越大,从而弥合了用户友好界面和KGs复杂架构之间的差距。挑战在于充分告知LLMs关于领域特定KGs的相关上下文和结构,例如在制造业中,以提高生成查询的准确性。在本文中,我们评估了多种使用LLMs作为中介来促进从KGs检索信息的策略。我们专注于制造业领域,特别是博世生产线信息系统KG和I40核心信息模型。在我们的评估中,我们比较了各种将KG的相关上下文提供给LLM的方法,并分析了它们将真实问题转换为SPARQL查询的能力。我们的研究结果表明,当仅提供KG模式的适当上下文时,LLMs可以显著提高生成正确和完整查询的性能。这种上下文感知提示技术有助于LLMs专注于本体的相关部分,并降低幻觉的风险。我们预计所提出的技术有助于LLMs普及对复杂数据存储库的访问,并支持制造业中的知情决策。

🔬 方法详解

问题定义:论文旨在解决非专业人士难以访问和利用制造业知识图谱的问题。现有方法需要用户编写复杂的SPARQL查询,门槛高,限制了知识图谱的广泛应用。现有方法的痛点在于缺乏用户友好的交互方式,难以将用户的自然语言意图转化为机器可执行的查询。

核心思路:论文的核心思路是利用大型语言模型(LLMs)作为桥梁,将用户的自然语言查询自动翻译成SPARQL查询。通过上下文感知提示,向LLM提供知识图谱的模式信息,使其更好地理解领域知识,从而提高查询转换的准确性。

技术框架:整体框架包含以下几个主要阶段:1. 用户输入自然语言查询;2. 系统根据查询内容,从知识图谱中提取相关的模式信息(上下文);3. 将自然语言查询和提取的上下文信息作为提示输入到LLM中;4. LLM生成SPARQL查询;5. 执行SPARQL查询,返回结果给用户。

关键创新:最重要的技术创新点在于上下文感知提示策略。与直接使用LLM进行查询转换相比,该方法通过提供知识图谱的模式信息,显著提高了LLM生成SPARQL查询的准确性和完整性。本质区别在于,该方法让LLM在理解领域知识的基础上进行查询转换,而不是简单地进行文本翻译。

关键设计:论文比较了多种上下文提供策略,例如提供完整的知识图谱模式、提供与查询相关的子图模式等。关键在于如何选择和组织提供给LLM的上下文信息,以平衡信息的完整性和LLM的处理能力。论文还分析了不同LLM在不同上下文下的表现,为实际应用提供了参考。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,通过上下文感知提示,LLM生成SPARQL查询的准确率显著提升。在博世生产线信息系统KG和I40核心信息模型上的测试表明,提供适当的KG模式上下文能够使LLM生成更完整和正确的查询,有效降低了LLM产生“幻觉”的风险,提升了知识图谱的可用性。

🎯 应用场景

该研究成果可应用于智能制造领域,通过自然语言交互方式,降低知识图谱的使用门槛,使工程师和管理人员能够更便捷地获取所需信息,从而支持更高效的决策制定和问题解决。未来,该技术可扩展到其他领域,如医疗、金融等,促进各行业的数据驱动智能化。

📄 摘要(原文)

Knowledge graphs (KGs) have transformed data management within the manufacturing industry, offering effective means for integrating disparate data sources through shared and structured conceptual schemas. However, harnessing the power of KGs can be daunting for non-experts, as it often requires formulating complex SPARQL queries to retrieve specific information. With the advent of Large Language Models (LLMs), there is a growing potential to automatically translate natural language queries into the SPARQL format, thus bridging the gap between user-friendly interfaces and the sophisticated architecture of KGs. The challenge remains in adequately informing LLMs about the relevant context and structure of domain-specific KGs, e.g., in manufacturing, to improve the accuracy of generated queries. In this paper, we evaluate multiple strategies that use LLMs as mediators to facilitate information retrieval from KGs. We focus on the manufacturing domain, particularly on the Bosch Line Information System KG and the I40 Core Information Model. In our evaluation, we compare various approaches for feeding relevant context from the KG to the LLM and analyze their proficiency in transforming real-world questions into SPARQL queries. Our findings show that LLMs can significantly improve their performance on generating correct and complete queries when provided only the adequate context of the KG schema. Such context-aware prompting techniques help LLMs to focus on the relevant parts of the ontology and reduce the risk of hallucination. We anticipate that the proposed techniques help LLMs to democratize access to complex data repositories and empower informed decision-making in manufacturing settings.