GOFAI meets Generative AI: Development of Expert Systems by means of Large Language Models
作者: Eduardo C. Garrido-Merchán, Cristina Puente
分类: cs.AI, cs.CL, cs.SC
发布日期: 2025-07-17
💡 一句话要点
提出一种基于大语言模型的专家系统开发方法,解决幻觉问题并保证可解释性。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 专家系统 知识表示 符号推理 提示工程 可解释性 知识库构建
📋 核心要点
- 现有大型语言模型在知识密集型任务中表现出色,但存在幻觉和事实错误等问题,限制了其在敏感领域的应用。
- 该方法通过限制领域知识范围,并结合结构化提示工程,从LLM中提取可验证的知识,并将其转化为符号表示。
- 实验结果表明,该方法生成的知识库具有高度的事实一致性和语义连贯性,为构建可靠的专家系统奠定了基础。
📝 摘要(中文)
本文提出了一种利用大型语言模型(LLMs)开发专家系统的新方法,旨在以可控和透明的方式利用LLMs。尽管LLMs在开放域问答等知识密集型任务中表现出色,但它们也存在幻觉和生成不正确或无法验证的事实的缺点。该方法通过限制领域和采用结构化的基于提示的提取方法,生成Prolog中的知识的符号表示,这些知识可以由人类专家验证和纠正。这种方法保证了解释性、可扩展性和所开发专家系统的可靠性。通过对Claude Sonnet 3.7和GPT-4.1的定量和定性实验,表明该方法在生成的知识库中具有很强的事实一致性和语义连贯性。本文提出了一种透明的混合解决方案,将LLMs的召回能力与符号系统的精度相结合,为敏感领域中可靠的AI应用奠定了基础。
🔬 方法详解
问题定义:现有专家系统开发依赖人工构建知识库,成本高昂且难以维护。大型语言模型虽然具备强大的知识储备,但容易产生幻觉,无法保证知识的准确性和可靠性。因此,需要一种方法能够利用LLM的知识,同时避免其幻觉问题,构建可信赖的专家系统。
核心思路:论文的核心思路是结合LLM的知识召回能力和符号系统的精确推理能力,构建混合专家系统。通过限制LLM的领域范围和使用结构化的提示工程,从LLM中提取知识,并将其转化为符号表示,例如Prolog规则。人类专家可以验证和纠正这些规则,从而保证知识的准确性。
技术框架:该方法包含以下主要阶段:1) 领域知识定义:明确专家系统需要覆盖的知识领域。2) 结构化提示设计:设计一系列结构化的提示,引导LLM提取特定类型的知识。3) 知识提取:使用LLM对提示进行推理,生成知识片段。4) 知识表示:将LLM生成的知识片段转化为符号表示,例如Prolog规则。5) 知识验证:由人类专家验证和纠正知识库。6) 推理:使用符号推理引擎对知识库进行推理,得到结论。
关键创新:该方法最重要的创新点在于将LLM的知识提取能力与符号系统的精确推理能力相结合,构建混合专家系统。通过限制领域范围和使用结构化提示,有效地控制了LLM的幻觉问题,保证了知识的准确性和可靠性。此外,将知识表示为符号形式,使得知识库具有可解释性和可验证性。
关键设计:关键设计包括:1) 领域知识范围的确定,需要根据实际应用场景进行选择。2) 结构化提示的设计,需要仔细考虑提示的措辞和结构,以引导LLM提取特定类型的知识。3) 知识表示形式的选择,需要根据推理引擎的特点进行选择。4) 知识验证流程的设计,需要确保由领域专家进行验证,并提供有效的纠错机制。
🖼️ 关键图片
📊 实验亮点
论文通过实验验证了该方法在知识库构建中的有效性。使用Claude Sonnet 3.7和GPT-4.1进行实验,结果表明,该方法生成的知识库具有很强的事实一致性和语义连贯性。专家验证表明,该方法能够有效地减少LLM的幻觉问题,提高知识的准确性。定量和定性分析结果均支持该方法的有效性。
🎯 应用场景
该研究成果可应用于医疗诊断、法律咨询、金融风控等对准确性和可靠性要求极高的敏感领域。通过结合LLM的知识和符号系统的推理能力,可以构建更加智能、可靠和可信赖的专家系统,辅助人类进行决策,提高工作效率,降低风险。未来,该方法有望推广到更广泛的领域,推动人工智能在各行业的应用。
📄 摘要(原文)
The development of large language models (LLMs) has successfully transformed knowledge-based systems such as open domain question nswering, which can automatically produce vast amounts of seemingly coherent information. Yet, those models have several disadvantages like hallucinations or confident generation of incorrect or unverifiable facts. In this paper, we introduce a new approach to the development of expert systems using LLMs in a controlled and transparent way. By limiting the domain and employing a well-structured prompt-based extraction approach, we produce a symbolic representation of knowledge in Prolog, which can be validated and corrected by human experts. This approach also guarantees interpretability, scalability and reliability of the developed expert systems. Via quantitative and qualitative experiments with Claude Sonnet 3.7 and GPT-4.1, we show strong adherence to facts and semantic coherence on our generated knowledge bases. We present a transparent hybrid solution that combines the recall capacity of LLMs with the precision of symbolic systems, thereby laying the foundation for dependable AI applications in sensitive domains.