LLM4ED: Large Language Models for Automatic Equation Discovery

📄 arXiv: 2405.07761v2 📥 PDF

作者: Mengge Du, Yuntian Chen, Zhongzheng Wang, Longfeng Nie, Dongxiao Zhang

分类: cs.LG, cs.AI, cs.SC, math-ph, stat.AP

发布日期: 2024-05-13 (更新: 2024-07-22)


💡 一句话要点

提出LLM4ED框架,利用大语言模型自动发现数据中的控制方程

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 方程发现 大语言模型 物理定律 自动化 知识发现

📋 核心要点

  1. 现有方程发现方法依赖复杂算法设计,实现难度高,限制了其应用。
  2. 利用大语言模型生成方程,并结合观测数据和优化策略进行方程的自动挖掘。
  3. 实验表明,该框架能有效发现偏微分方程和常微分方程中的物理定律,且稳定性和可用性良好。

📝 摘要(中文)

方程发现旨在直接从数据中提取物理定律,已成为一个关键的研究领域。以往基于符号数学的方法取得了显著进展,但通常需要设计和实现复杂的算法。本文提出了一个新框架,利用基于自然语言的提示来指导大型语言模型(LLMs)自动挖掘数据中的控制方程。具体而言,首先利用LLMs的生成能力生成各种字符串形式的方程,然后根据观测数据评估生成的方程。在优化阶段,提出了两种交替迭代的策略来协同优化生成的方程。第一种策略是将LLMs作为黑盒优化器,基于历史样本及其性能实现方程的自我改进。第二种策略是指导LLMs执行进化算子进行全局搜索。在偏微分方程和常微分方程上进行了广泛的实验。结果表明,该框架可以发现有效的方程,以揭示各种非线性动力系统下的潜在物理定律。与最先进的模型进行了进一步的比较,证明了良好的稳定性和可用性。该框架大大降低了学习和应用方程发现技术的门槛,展示了LLMs在知识发现领域的应用潜力。

🔬 方法详解

问题定义:方程发现旨在从数据中提取潜在的物理定律。传统方法,特别是基于符号回归的方法,虽然有效,但通常需要手动设计复杂的算法和搜索策略,计算成本高昂,且对特定问题缺乏泛化能力。因此,如何降低方程发现的门槛,并提高其自动化程度是一个关键问题。

核心思路:本文的核心思路是利用大型语言模型(LLMs)强大的生成和推理能力,将方程发现问题转化为一个自然语言处理任务。通过精心设计的提示(prompts),引导LLMs生成候选方程,并利用观测数据对这些方程进行评估和优化。这种方法避免了手动设计复杂算法的需要,并充分利用了LLMs的知识和泛化能力。

技术框架:LLM4ED框架包含两个主要阶段:方程生成和方程优化。在方程生成阶段,利用LLMs生成多种形式的方程,这些方程以字符串形式表示。在方程优化阶段,采用两种交替迭代的策略:1) LLM黑盒优化:将LLMs视为黑盒优化器,根据历史样本(生成的方程)及其性能(与观测数据的拟合程度)进行自我改进,生成更优的方程。2) LLM进化算子:指导LLMs执行进化算子(如交叉、变异),对生成的方程进行全局搜索,探索更广阔的解空间。这两个策略相互协作,共同优化生成的方程。

关键创新:该方法最重要的创新在于将方程发现问题转化为一个自然语言处理问题,并利用LLMs的生成和推理能力来解决该问题。与传统的符号回归方法相比,该方法无需手动设计复杂的算法,降低了方程发现的门槛,并提高了自动化程度。此外,交替迭代的优化策略结合了局部搜索和全局搜索的优点,提高了方程发现的效率和准确性。

关键设计:在方程生成阶段,提示的设计至关重要,需要包含足够的信息来引导LLMs生成合理的方程。在方程优化阶段,需要设计合适的评估指标来衡量生成的方程与观测数据的拟合程度。此外,LLM黑盒优化和LLM进化算子的具体实现也需要仔细设计,以保证优化过程的有效性和稳定性。例如,可以采用强化学习的方法来训练LLMs,使其能够更好地生成和优化方程。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,LLM4ED框架在偏微分方程和常微分方程的发现任务上表现出色,能够有效地揭示各种非线性动力系统下的潜在物理定律。与现有最先进的模型相比,LLM4ED框架具有良好的稳定性和可用性,并且能够发现更简洁、更准确的方程。

🎯 应用场景

该研究成果可广泛应用于物理学、化学、生物学、工程学等领域,帮助科学家和工程师从实验数据中自动发现潜在的物理定律和数学模型。例如,可以用于发现新的材料特性、预测气候变化趋势、优化控制系统等。该方法降低了方程发现的门槛,使得更多的人可以利用数据来探索和理解世界。

📄 摘要(原文)

Equation discovery is aimed at directly extracting physical laws from data and has emerged as a pivotal research domain. Previous methods based on symbolic mathematics have achieved substantial advancements, but often require the design of implementation of complex algorithms. In this paper, we introduce a new framework that utilizes natural language-based prompts to guide large language models (LLMs) in automatically mining governing equations from data. Specifically, we first utilize the generation capability of LLMs to generate diverse equations in string form, and then evaluate the generated equations based on observations. In the optimization phase, we propose two alternately iterated strategies to optimize generated equations collaboratively. The first strategy is to take LLMs as a black-box optimizer and achieve equation self-improvement based on historical samples and their performance. The second strategy is to instruct LLMs to perform evolutionary operators for global search. Experiments are extensively conducted on both partial differential equations and ordinary differential equations. Results demonstrate that our framework can discover effective equations to reveal the underlying physical laws under various nonlinear dynamic systems. Further comparisons are made with state-of-the-art models, demonstrating good stability and usability. Our framework substantially lowers the barriers to learning and applying equation discovery techniques, demonstrating the application potential of LLMs in the field of knowledge discovery.