Knowledge Reasoning of Large Language Models Integrating Graph-Structured Information for Pest and Disease Control in Tobacco

📄 arXiv: 2512.21837v1 📥 PDF

作者: Siyu Li, Chenwei Song, Wan Zhou, Xinyi Liu

分类: cs.CL

发布日期: 2025-12-26


💡 一句话要点

提出融合图结构信息的大语言模型,用于烟草病虫害防治的知识推理

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大语言模型 知识图谱 图神经网络 知识推理 烟草病虫害防治

📋 核心要点

  1. 现有方法在烟草病虫害防治知识推理方面,缺乏对领域知识的有效利用和结构化信息的整合。
  2. 论文提出GraphRAG框架,结合领域知识图谱和图神经网络,增强LLM的知识检索和推理能力。
  3. 实验结果表明,该方法在准确性和推理深度上显著优于基线方法,尤其在复杂推理场景中。

📝 摘要(中文)

本文提出了一种融合图结构信息的大语言模型(LLM)方法,用于烟草病虫害防治中的知识推理。该方法构建于GraphRAG框架之上,通过显式地整合领域知识图谱中的结构化信息,增强了知识检索和推理能力。具体而言,首先利用LLM辅助构建烟草病虫害知识图谱,该图谱组织了疾病、症状、防治方法及其关系等关键实体。在此基础上,检索相关知识并将其整合到推理过程中,以支持准确的答案生成。Transformer架构被用作核心推理模型,同时采用图神经网络(GNN)来学习富有表现力的节点表示,从而捕获知识图谱中的局部和全局关系信息。基于ChatGLM的模型作为主干LLM,并使用LoRA进行微调,以实现参数高效的适应。大量的实验结果表明,所提出的方法在多个评估指标上始终优于基线方法,显著提高了推理的准确性和深度,尤其是在复杂的多跳和比较推理场景中。

🔬 方法详解

问题定义:论文旨在解决烟草病虫害防治领域中,如何利用大语言模型进行更准确、更深入的知识推理问题。现有方法通常缺乏对领域知识的有效利用,难以处理复杂的多跳推理和比较推理场景,导致推理结果的准确性和深度不足。

核心思路:论文的核心思路是将领域知识图谱的结构化信息融入到大语言模型的推理过程中。通过构建烟草病虫害知识图谱,并利用图神经网络学习节点表示,使模型能够更好地理解实体之间的关系,从而提高知识检索和推理的准确性。

技术框架:整体框架基于GraphRAG,包含以下主要模块:1) 利用LLM辅助构建烟草病虫害知识图谱;2) 使用图神经网络(GNN)学习知识图谱中节点的表示;3) 基于检索到的相关知识和节点表示,利用Transformer架构进行知识推理;4) 使用LoRA对ChatGLM进行微调,以适应特定任务。

关键创新:最重要的技术创新点在于将图结构信息显式地融入到大语言模型的知识推理过程中。与传统的RAG方法相比,该方法不仅检索相关文本,还利用图神经网络学习的节点表示,从而更好地理解实体之间的关系,提高推理的准确性和深度。

关键设计:论文采用Transformer作为核心推理模型,GNN用于学习节点表示。ChatGLM作为主干LLM,并使用LoRA进行参数高效的微调。具体的参数设置和网络结构等技术细节在论文中进行了详细描述,但具体数值未知。

📊 实验亮点

实验结果表明,所提出的方法在多个评估指标上始终优于基线方法,显著提高了推理的准确性和深度。尤其是在复杂的多跳和比较推理场景中,该方法的性能提升更为明显。具体的性能数据和提升幅度在论文中进行了详细展示,但具体数值未知。

🎯 应用场景

该研究成果可应用于智能农业领域,为烟草种植者提供更准确、更全面的病虫害防治知识和决策支持。通过整合领域知识图谱和LLM,可以构建智能问答系统、辅助诊断工具等,提高烟草种植的效率和质量,并降低病虫害造成的损失。未来,该方法可以推广到其他农作物病虫害防治领域。

📄 摘要(原文)

This paper proposes a large language model (LLM) approach that integrates graph-structured information for knowledge reasoning in tobacco pest and disease control. Built upon the GraphRAG framework, the proposed method enhances knowledge retrieval and reasoning by explicitly incorporating structured information from a domain-specific knowledge graph. Specifically, LLMs are first leveraged to assist in the construction of a tobacco pest and disease knowledge graph, which organizes key entities such as diseases, symptoms, control methods, and their relationships. Based on this graph, relevant knowledge is retrieved and integrated into the reasoning process to support accurate answer generation. The Transformer architecture is adopted as the core inference model, while a graph neural network (GNN) is employed to learn expressive node representations that capture both local and global relational information within the knowledge graph. A ChatGLM-based model serves as the backbone LLM and is fine-tuned using LoRA to achieve parameter-efficient adaptation. Extensive experimental results demonstrate that the proposed approach consistently outperforms baseline methods across multiple evaluation metrics, significantly improving both the accuracy and depth of reasoning, particularly in complex multi-hop and comparative reasoning scenarios.