Large Language Models as Optimization Controllers: Adaptive Continuation for SIMP Topology Optimization

📄 arXiv: 2603.25099v1 📥 PDF

作者: Shaoliang Yang, Jun Wang, Yunsheng Wang

分类: cs.CE, cs.AI

发布日期: 2026-03-26

备注: 36 pages, 11 figures


💡 一句话要点

提出基于大语言模型的拓扑优化自适应控制方法,提升SIMP算法性能。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 拓扑优化 大语言模型 自适应控制 SIMP方法 结构优化

📋 核心要点

  1. 传统SIMP拓扑优化依赖固定策略延续,难以适应复杂问题,存在优化效率和性能瓶颈。
  2. 利用大语言模型作为自适应控制器,根据实时状态动态调整优化参数,实现更高效的探索。
  3. 实验表明,该方法在多个2D和3D拓扑优化问题上,显著降低了结构柔度,优于传统方法。

📝 摘要(中文)

本文提出了一种框架,其中大语言模型(LLM)充当SIMP拓扑优化的在线自适应控制器,用实时的、状态条件化的参数决策取代了传统的固定策略延续。在每个第k次迭代中,LLM接收一个结构化的观察值——当前柔度、灰度指数、停滞计数器、棋盘格度量、体积分数和预算消耗——并通过直接数值控制接口输出惩罚指数p、投影锐度β、过滤半径rmin和移动限制δ的数值。一个硬灰度门防止过早的二值化,一个元优化循环使用第二个LLM通道来调整代理的调用频率和跨运行的门限。在三个二维问题(悬臂梁、MBB梁、L型支架),分辨率为120x60,以及两个三维问题(悬臂梁、MBB梁),分辨率为40x20x10上,针对四个基线(固定(无延续)、标准三场延续、专家启发式和仅计划消融)对代理进行基准测试,所有运行300次迭代。从最佳有效快照应用标准化的40次迭代锐化尾部,以便柔度差异仅反映探索阶段。LLM代理在每个基准测试中都实现了最低的最终柔度:相对于固定基线降低了-5.7%到-18.1%,所有解决方案都是完全二元的。仅计划消融在三个问题中的两个上表现不如固定基线,证实了LLM的实时干预——而不是计划几何——驱动了增益。代码和复现脚本将在发布后发布。

🔬 方法详解

问题定义:论文旨在解决结构拓扑优化中,基于固体各向同性材料惩罚(SIMP)方法对参数设置的依赖性问题。传统SIMP方法通常采用固定的参数调整策略(如惩罚因子、过滤半径等),这些策略难以适应不同问题的特性,导致优化效率低下,容易陷入局部最优,或者无法得到完全二元的结构。

核心思路:论文的核心思路是将大语言模型(LLM)引入到拓扑优化过程中,作为一个自适应的控制器。LLM能够根据优化过程中的实时状态(如柔度、灰度指数等)动态调整SIMP算法的关键参数,从而实现更高效、更鲁棒的优化过程。这种方法的核心在于利用LLM的决策能力,替代人工设定的固定策略。

技术框架:该框架包含以下几个主要模块: 1. SIMP拓扑优化求解器:负责执行标准的SIMP算法,根据给定的参数进行迭代优化。 2. 状态观测器:负责收集优化过程中的关键状态信息,如柔度、灰度指数、体积分数等,并将这些信息以结构化的形式提供给LLM。 3. LLM控制器:接收状态观测器提供的信息,并根据这些信息决策SIMP算法的参数(如惩罚指数、过滤半径、移动限制等)。LLM通过直接数值控制接口将参数传递给SIMP求解器。 4. 元优化循环:使用另一个LLM来调整主LLM控制器的调用频率和灰度门限,以进一步提升优化性能。

关键创新:该方法最重要的技术创新点在于将大语言模型作为拓扑优化的自适应控制器。与传统的固定策略或启发式方法相比,LLM能够根据实时状态进行决策,从而更好地适应不同问题的特性。此外,使用元优化循环来调整LLM控制器的超参数也是一个创新点。

关键设计: 1. 状态表示:论文设计了一套结构化的状态表示,包括柔度、灰度指数、停滞计数器、棋盘格度量、体积分数和预算消耗,这些信息能够全面反映优化过程的状态。 2. LLM接口:论文设计了一个直接数值控制接口,允许LLM直接输出SIMP算法的参数值。 3. 灰度门限:论文使用一个硬灰度门来防止过早的二值化,从而避免优化过程陷入局部最优。 4. 元优化:使用另一个LLM来优化主LLM的调用频率和灰度门限,以提升整体性能。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在2D和3D拓扑优化问题上均取得了显著的性能提升。与固定策略基线相比,该方法在所有基准测试中都实现了最低的最终柔度,降低幅度为-5.7%到-18.1%。此外,消融实验表明,LLM的实时干预是性能提升的关键因素,而非仅仅是预先设定的参数调整策略。

🎯 应用场景

该研究成果可应用于各种工程结构的拓扑优化设计,例如航空航天、汽车工程、建筑设计等领域。通过利用LLM的自适应控制能力,可以设计出更轻量化、更高效的结构,从而降低材料成本、提高产品性能,并加速设计周期。未来,该方法有望扩展到更复杂的优化问题,例如多物理场耦合优化、多目标优化等。

📄 摘要(原文)

We present a framework in which a large language model (LLM) acts as an online adaptive controller for SIMP topology optimization, replacing conventional fixed-schedule continuation with real-time, state-conditioned parameter decisions. At every $k$-th iteration, the LLM receives a structured observation$-$current compliance, grayness index, stagnation counter, checkerboard measure, volume fraction, and budget consumption$-$and outputs numerical values for the penalization exponent $p$, projection sharpness $β$, filter radius $r_{\min}$, and move limit $δ$ via a Direct Numeric Control interface. A hard grayness gate prevents premature binarization, and a meta-optimization loop uses a second LLM pass to tune the agent's call frequency and gate threshold across runs. We benchmark the agent against four baselines$-$fixed (no-continuation), standard three-field continuation, an expert heuristic, and a schedule-only ablation$-$on three 2-D problems (cantilever, MBB beam, L-bracket) at $120!\times!60$ resolution and two 3-D problems (cantilever, MBB beam) at $40!\times!20!\times!10$ resolution, all run for 300 iterations. A standardized 40-iteration sharpening tail is applied from the best valid snapshot so that compliance differences reflect only the exploration phase. The LLM agent achieves the lowest final compliance on every benchmark: $-5.7\%$ to $-18.1\%$ relative to the fixed baseline, with all solutions fully binary. The schedule-only ablation underperforms the fixed baseline on two of three problems, confirming that the LLM's real-time intervention$-$not the schedule geometry$-$drives the gain. Code and reproduction scripts will be released upon publication.