Can AI Examine Novelty of Patents?: Novelty Evaluation Based on the Correspondence between Patent Claim and Prior Art

📄 arXiv: 2502.06316v1 📥 PDF

作者: Hayato Ikoma, Teruko Mitamura

分类: cs.CL

发布日期: 2025-02-10

备注: 11 pages, 5 figures


💡 一句话要点

提出基于LLM的专利新颖性评估方法,并构建首个相关数据集。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 专利新颖性评估 大型语言模型 自然语言处理 专利审查自动化 生成模型 数据集构建 AI辅助

📋 核心要点

  1. 专利新颖性评估是关键任务,但传统方法效率低,缺乏自动化工具。
  2. 利用大型语言模型,通过对比专利声明与现有技术文档,模拟专利审查员的工作流程。
  3. 构建了首个专利新颖性评估数据集,实验表明生成模型在新颖性评估中表现出潜力。

📝 摘要(中文)

评估专利声明的新颖性是专利审查员的一项关键但具有挑战性的任务。虽然自然语言处理的进步促进了各种专利相关任务的发展,但新颖性评估仍未被探索。本文通过评估大型语言模型(LLM)比较专利声明与引用的现有技术文档来评估专利新颖性的能力,从而引入了一项新的挑战,该过程类似于专利审查员所做的工作。我们提出了第一个专门为新颖性评估而设计的数据集,该数据集源自真实的专利审查案例,并分析了LLM解决此任务的能力。我们的研究表明,虽然分类模型难以有效评估新颖性,但生成模型可以合理地准确预测,并且它们的解释足够准确,可以理解目标专利与现有技术之间的关系。这些发现证明了LLM在协助专利评估方面的潜力,从而减少了审查员和申请人的工作量。我们的贡献突出了当前模型的局限性,并为通过高级模型和改进的数据集改进AI驱动的专利分析奠定了基础。

🔬 方法详解

问题定义:论文旨在解决专利新颖性评估问题,即判断一项专利声明是否具有新颖性,是否已经被现有技术所公开。现有方法主要依赖人工审查,效率低下且成本高昂。缺乏有效的自动化工具来辅助专利审查员进行新颖性评估。

核心思路:论文的核心思路是利用大型语言模型(LLM)的自然语言理解和生成能力,模拟专利审查员的审查过程。通过比较专利声明与引用的现有技术文档,判断该专利声明是否具有新颖性。这种方法旨在提高专利审查的效率和准确性。

技术框架:整体框架包括以下几个主要步骤:1)构建专利新颖性评估数据集,该数据集包含专利声明和引用的现有技术文档;2)使用LLM对专利声明和现有技术文档进行编码,提取特征;3)使用分类模型或生成模型,基于提取的特征判断专利声明是否具有新颖性;4)对生成模型的预测结果进行解释,以验证其合理性。

关键创新:论文的关键创新在于:1)提出了利用LLM进行专利新颖性评估的新思路;2)构建了首个专门用于专利新颖性评估的数据集;3)验证了生成模型在专利新颖性评估中的有效性,并提供了可解释的预测结果。

关键设计:论文中,数据集的构建是关键设计之一,它需要包含真实的专利审查案例,并标注专利声明是否具有新颖性。此外,选择合适的LLM模型,并设计有效的特征提取方法,也是影响评估结果的关键因素。论文中对比了分类模型和生成模型,并发现生成模型在专利新颖性评估中表现更好。具体的参数设置、损失函数和网络结构等技术细节在论文中可能没有详细描述,属于未知信息。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,分类模型在专利新颖性评估中表现不佳,而生成模型能够以合理的准确率进行预测。生成模型的解释也足够准确,可以理解目标专利和现有技术之间的关系。该研究验证了LLM在专利评估中的潜力,为AI驱动的专利分析提供了新的方向。

🎯 应用场景

该研究成果可应用于专利审查自动化、专利申请预审、专利检索等领域。通过AI辅助,可以显著提高专利审查效率,降低审查成本,并为专利申请人提供更准确的预审评估,从而促进创新和技术发展。未来,该技术有望集成到专利管理系统中,实现智能化专利管理。

📄 摘要(原文)

Assessing the novelty of patent claims is a critical yet challenging task traditionally performed by patent examiners. While advancements in NLP have enabled progress in various patent-related tasks, novelty assessment remains unexplored. This paper introduces a novel challenge by evaluating the ability of large language models (LLMs) to assess patent novelty by comparing claims with cited prior art documents, following the process similar to that of patent examiners done. We present the first dataset specifically designed for novelty evaluation, derived from real patent examination cases, and analyze the capabilities of LLMs to address this task. Our study reveals that while classification models struggle to effectively assess novelty, generative models make predictions with a reasonable level of accuracy, and their explanations are accurate enough to understand the relationship between the target patent and prior art. These findings demonstrate the potential of LLMs to assist in patent evaluation, reducing the workload for both examiners and applicants. Our contributions highlight the limitations of current models and provide a foundation for improving AI-driven patent analysis through advanced models and refined datasets.