TRIZ-RAGNER: A Retrieval-Augmented Large Language Model for TRIZ-Aware Named Entity Recognition in Patent-Based Contradiction Mining
作者: Zitong Xu, Yuqing Wu, Yue Zhao
分类: cs.CL, cs.AI
发布日期: 2026-02-27
💡 一句话要点
提出TRIZ-RAGNER框架,用于专利中TRIZ感知的命名实体识别,提升矛盾挖掘效果。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: TRIZ 矛盾挖掘 命名实体识别 大型语言模型 检索增强生成
📋 核心要点
- 现有专利矛盾挖掘方法依赖规则或传统机器学习,难以处理专利语言的语义模糊和领域依赖问题。
- TRIZ-RAGNER通过检索增强LLM,注入TRIZ知识,减少语义噪声,提升参数提取的一致性和准确性。
- 实验表明,TRIZ-RAGNER在PaTRIZ数据集上显著优于传统模型和LLM基线,F1值提升7.3%。
📝 摘要(中文)
基于TRIZ的矛盾挖掘是专利分析和系统创新的基础任务,它能够识别驱动创新问题解决的改进和恶化技术参数。然而,现有方法主要依赖于基于规则的系统或传统机器学习模型,在处理复杂的专利语言时,存在语义模糊、领域依赖和泛化能力有限等问题。最近,大型语言模型(LLM)展现出强大的语义理解能力,但由于幻觉和TRIZ结构化知识的不足,直接应用于TRIZ参数提取仍然具有挑战性。为了解决这些限制,本文提出了一种检索增强的大型语言模型框架TRIZ-RAGNER,用于专利中TRIZ感知的命名实体识别,以进行矛盾挖掘。TRIZ-RAGNER将矛盾挖掘重新定义为语义级别的NER任务,并集成了TRIZ知识库上的密集检索、用于上下文细化的交叉编码器重排序和结构化的LLM提示,以从专利语句中提取改进和恶化参数。通过将特定领域的TRIZ知识注入到LLM推理过程中,该框架有效地减少了语义噪声并提高了提取一致性。在PaTRIZ数据集上的实验表明,TRIZ-RAGNER始终优于传统的序列标注模型和基于LLM的基线模型。在TRIZ矛盾对识别中,该框架实现了85.6%的精确率、82.9%的召回率和84.2%的F1分数。与使用提示增强GPT的最强基线相比,TRIZ-RAGNER的F1分数绝对提高了7.3个百分点,证实了检索增强的TRIZ知识基础对于稳健和准确的基于专利的矛盾挖掘的有效性。
🔬 方法详解
问题定义:论文旨在解决专利文本中TRIZ参数(改进参数和恶化参数)的自动提取问题,这是TRIZ矛盾挖掘的关键步骤。现有方法,如基于规则的系统和传统机器学习模型,在处理专利文本的复杂性和语义模糊性时表现不佳,泛化能力有限。直接应用LLM虽然具备语义理解能力,但容易产生幻觉,且缺乏TRIZ领域的专业知识。
核心思路:论文的核心思路是利用检索增强生成(RAG)框架,将外部TRIZ知识库融入到LLM的推理过程中。通过检索相关的TRIZ知识,并将其作为LLM的输入,可以有效减少LLM的幻觉,并提高其在TRIZ参数提取任务中的准确性和一致性。这种方法的核心在于将LLM的通用语义理解能力与领域知识相结合。
技术框架:TRIZ-RAGNER框架包含以下主要模块:1) TRIZ知识库:构建包含TRIZ相关概念、原理和案例的知识库。2) 密集检索:使用密集向量检索技术,从TRIZ知识库中检索与输入专利语句相关的知识片段。3) 交叉编码器重排序:对检索到的知识片段进行重排序,选择最相关的知识。4) 结构化LLM提示:构建包含检索到的TRIZ知识的提示,引导LLM提取改进和恶化参数。
关键创新:该论文的关键创新在于将检索增强技术应用于TRIZ参数提取任务,并设计了专门针对TRIZ知识的检索和提示策略。与直接使用LLM或传统方法相比,TRIZ-RAGNER能够更好地利用领域知识,提高提取的准确性和一致性。此外,将矛盾挖掘任务重新定义为语义级别的NER任务也是一个创新点。
关键设计:TRIZ知识库的构建方式(例如,如何表示TRIZ概念和原理),密集检索模型的选择(例如,使用哪种预训练语言模型进行微调),交叉编码器重排序的策略(例如,如何计算知识片段与输入语句的相关性),以及结构化LLM提示的设计(例如,提示的格式和内容)都是关键的技术细节。论文可能还涉及一些超参数的调整和优化。
📊 实验亮点
TRIZ-RAGNER在PaTRIZ数据集上取得了显著的性能提升,精确率达到85.6%,召回率达到82.9%,F1分数达到84.2%。与最强的基于提示增强GPT的基线相比,F1分数绝对提升了7.3个百分点。这些结果表明,检索增强的TRIZ知识基础能够有效提高专利矛盾挖掘的准确性和鲁棒性。
🎯 应用场景
该研究成果可应用于专利分析、创新设计、技术趋势预测等领域。通过自动提取专利中的TRIZ参数,可以帮助工程师和研究人员快速识别技术矛盾,并利用TRIZ原理寻找解决方案,加速创新过程。此外,该技术还可以用于竞争情报分析,帮助企业了解竞争对手的技术发展方向。
📄 摘要(原文)
TRIZ-based contradiction mining is a fundamental task in patent analysis and systematic innovation, as it enables the identification of improving and worsening technical parameters that drive inventive problem solving. However, existing approaches largely rely on rule-based systems or traditional machine learning models, which struggle with semantic ambiguity, domain dependency, and limited generalization when processing complex patent language. Recently, large language models (LLMs) have shown strong semantic understanding capabilities, yet their direct application to TRIZ parameter extraction remains challenging due to hallucination and insufficient grounding in structured TRIZ knowledge. To address these limitations, this paper proposes TRIZ-RAGNER, a retrieval-augmented large language model framework for TRIZ-aware named entity recognition in patent-based contradiction mining. TRIZ-RAGNER reformulates contradiction mining as a semantic-level NER task and integrates dense retrieval over a TRIZ knowledge base, cross-encoder reranking for context refinement, and structured LLM prompting to extract improving and worsening parameters from patent sentences. By injecting domain-specific TRIZ knowledge into the LLM reasoning process, the proposed framework effectively reduces semantic noise and improves extraction consistency. Experiments on the PaTRIZ dataset demonstrate that TRIZ-RAGNER consistently outperforms traditional sequence labeling models and LLM-based baselines. The proposed framework achieves a precision of 85.6%, a recall of 82.9%, and an F1-score of 84.2% in TRIZ contradiction pair identification. Compared with the strongest baseline using prompt-enhanced GPT, TRIZ-RAGNER yields an absolute F1-score improvement of 7.3 percentage points, confirming the effectiveness of retrieval-augmented TRIZ knowledge grounding for robust and accurate patent-based contradiction mining.