Fine-tuning a Large Language Model for Automating Computational Fluid Dynamics Simulations
作者: Zhehao Dong, Zhen Lu, Yue Yang
分类: physics.flu-dyn, cs.AI, cs.CL
发布日期: 2025-04-13 (更新: 2025-04-21)
期刊: Theor. Appl. Mech. Lett. 15, 100594 (2025)
DOI: 10.1016/j.taml.2025.100594
🔗 代码/项目: GITHUB
💡 一句话要点
通过领域微调大语言模型实现计算流体动力学模拟的自动化配置
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 计算流体动力学 大型语言模型 领域微调 自动化配置 多智能体系统
📋 核心要点
- CFD模拟配置复杂,依赖领域专家知识,阻碍了其广泛应用,现有方法难以实现自动化。
- 通过在领域数据集上微调LLM,使其能够理解自然语言描述并生成可执行的CFD配置。
- 实验表明,该方法在CFD配置自动化方面达到了最先进的性能,显著优于通用LLM。
📝 摘要(中文)
计算流体动力学(CFD)模拟的配置通常需要大量的领域专业知识,这限制了其更广泛的应用。尽管大型语言模型(LLM)在科学计算领域取得了进展,但它们在自动化CFD工作流程中的应用仍不发达。本文提出了一种以领域特定LLM适配为中心的新方法。通过在NL2FOAM(一个包含28716个自然语言到OpenFOAM配置对,并带有思维链(CoT)注释的自定义数据集)上微调Qwen2.5-7B-Instruct,我们实现了从自然语言描述到可执行CFD设置的直接转换。一个多智能体框架协调整个过程,自主验证输入、生成配置、运行模拟和纠正错误。在包含21个不同流动案例的基准测试中,评估结果表明该方法达到了最先进的性能,实现了88.7%的解精度和82.6%的首次尝试成功率。这显著优于更大的通用模型,如Qwen2.5-72B-Instruct、DeepSeek-R1和Llama3.3-70B-Instruct,同时需要更少的校正迭代次数并保持较高的计算效率。结果突出了领域特定适配在部署LLM助手以用于复杂工程工作流程中的关键作用。我们的代码和微调模型已发布在https://github.com/YYgroup/AutoCFD。
🔬 方法详解
问题定义:论文旨在解决CFD模拟配置自动化的问题。现有方法需要大量人工干预和领域专业知识,导致效率低下且难以推广。通用LLM虽然具备一定的自然语言处理能力,但在CFD领域知识的理解和应用方面存在不足,难以直接用于生成准确的CFD配置。
核心思路:论文的核心思路是利用领域特定的数据对LLM进行微调,使其能够更好地理解CFD领域的自然语言描述,并将其转化为可执行的CFD配置。通过这种方式,可以降低CFD模拟配置的门槛,提高自动化程度。
技术框架:整体框架包含以下几个主要模块:1) 数据集构建:构建包含自然语言描述和对应OpenFOAM配置的NL2FOAM数据集,并添加思维链(CoT)注释以提高模型推理能力。2) 模型微调:在NL2FOAM数据集上微调Qwen2.5-7B-Instruct模型,使其具备将自然语言描述转化为CFD配置的能力。3) 多智能体框架:构建一个多智能体框架,该框架能够自主验证输入、生成配置、运行模拟和纠正错误,实现CFD模拟的自动化流程。
关键创新:论文的关键创新在于领域特定LLM的适配方法和多智能体框架的结合。通过领域微调,LLM能够更好地理解CFD领域的知识,从而生成更准确的配置。多智能体框架则实现了CFD模拟的自动化流程,减少了人工干预。
关键设计:NL2FOAM数据集包含28716个自然语言到OpenFOAM配置对,并带有CoT注释。CoT注释通过提供逐步推理过程,帮助模型更好地理解自然语言描述和CFD配置之间的关系。模型选择Qwen2.5-7B-Instruct,并在该模型的基础上进行微调。多智能体框架包含多个智能体,分别负责输入验证、配置生成、模拟运行和错误纠正等任务。具体参数设置和损失函数等细节在论文中未详细描述,属于未知信息。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在21个不同的流动案例中实现了88.7%的解精度和82.6%的首次尝试成功率,显著优于更大的通用模型,如Qwen2.5-72B-Instruct、DeepSeek-R1和Llama3.3-70B-Instruct。同时,该方法需要的校正迭代次数更少,计算效率更高。
🎯 应用场景
该研究成果可应用于各种需要CFD模拟的工程领域,例如航空航天、汽车工程、建筑设计等。通过自动化CFD模拟配置,可以降低使用门槛,提高设计效率,加速产品开发周期。未来,该技术有望与CAD软件集成,实现设计与仿真的无缝衔接。
📄 摘要(原文)
Configuring computational fluid dynamics (CFD) simulations typically demands extensive domain expertise, limiting broader access. Although large language models (LLMs) have advanced scientific computing, their use in automating CFD workflows is underdeveloped. We introduce a novel approach centered on domain-specific LLM adaptation. By fine-tuning Qwen2.5-7B-Instruct on NL2FOAM, our custom dataset of 28716 natural language-to-OpenFOAM configuration pairs with chain-of-thought (CoT) annotations, we enable direct translation from natural language descriptions to executable CFD setups. A multi-agent framework orchestrates the process, autonomously verifying inputs, generating configurations, running simulations, and correcting errors. Evaluation on a benchmark of 21 diverse flow cases demonstrates state-of-the-art performance, achieving 88.7% solution accuracy and 82.6% first-attempt success rate. This significantly outperforms larger general-purpose models like Qwen2.5-72B-Instruct, DeepSeek-R1, and Llama3.3-70B-Instruct, while also requiring fewer correction iterations and maintaining high computational efficiency. The results highlight the critical role of domain-specific adaptation in deploying LLM assistants for complex engineering workflows. Our code and fine-tuned model have been deposited at https://github.com/YYgroup/AutoCFD.