Evolution of Optimization Algorithms for Global Placement via Large Language Models
作者: Xufeng Yao, Jiaxi Jiang, Yuxuan Zhao, Peiyu Liao, Yibo Lin, Bei Yu
分类: cs.NE, cs.AI
发布日期: 2025-04-18
💡 一句话要点
提出基于大语言模型的优化算法演化框架以解决全局布局问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 全局布局 优化算法 大语言模型 遗传算法 电子设计自动化 性能提升 自动化框架
📋 核心要点
- 现有的全局布局优化算法依赖于启发式方法,手动设计过程复杂且效率低下。
- 本文提出了一种利用大语言模型生成和演化优化算法的自动化框架,旨在提高全局布局的效率和效果。
- 实验结果表明,所提出的算法在多个基准测试中均实现了显著的性能提升,尤其在特定案例中提升幅度可达17%。
📝 摘要(中文)
优化算法广泛应用于解决复杂问题,但手动设计往往劳动密集且需要专业知识。全局布局是电子设计自动化中的基础步骤。尽管分析方法在全局布局中处于领先地位,其核心优化算法仍然依赖于启发式和定制组件。本文提出了一种自动化框架,利用大语言模型(LLM)演化全局布局的优化算法。我们首先通过精心设计的提示生成多样化的候选算法,然后引入基于LLM的遗传流程来演化选定的候选算法。所发现的优化算法在多个基准测试中表现出显著的性能提升,具体而言,设计案例特定的算法在MMS、ISPD2005和ISPD2019基准上分别实现了平均HPWL提升5.05%、5.29%和8.30%,在个别案例中提升幅度高达17%。此外,所发现的算法展现出良好的泛化能力,并与现有的参数调优方法互补。
🔬 方法详解
问题定义:本文旨在解决全局布局优化算法设计的复杂性和效率低下的问题。现有方法通常依赖于启发式策略,缺乏灵活性和适应性。
核心思路:通过利用大语言模型(LLM),本文提出了一种自动化框架,能够生成多样化的候选优化算法,并通过遗传算法演化这些候选算法,以实现更优的全局布局效果。
技术框架:整体框架包括两个主要阶段:首先,使用LLM生成多种候选算法;其次,应用基于LLM的遗传流程对这些候选算法进行演化和优化。
关键创新:最重要的创新在于将大语言模型应用于优化算法的生成与演化,突破了传统手动设计的限制,显著提高了算法的多样性和性能。
关键设计:在算法生成过程中,设计了精心构建的提示以引导LLM生成有效的候选算法,遗传流程中则采用了适应度评估机制来选择和演化最优算法。
🖼️ 关键图片
📊 实验亮点
实验结果显示,所提出的优化算法在MMS、ISPD2005和ISPD2019基准上分别实现了5.05%、5.29%和8.30%的HPWL提升,个别案例中提升幅度高达17%。这些结果表明新算法在性能上显著优于传统方法,且具备良好的泛化能力。
🎯 应用场景
该研究的潜在应用领域包括电子设计自动化、集成电路布局优化以及其他需要高效优化算法的工程领域。通过自动化优化算法的生成与演化,能够显著提高设计效率,降低人力成本,并推动相关技术的进步与创新。
📄 摘要(原文)
Optimization algorithms are widely employed to tackle complex problems, but designing them manually is often labor-intensive and requires significant expertise. Global placement is a fundamental step in electronic design automation (EDA). While analytical approaches represent the state-of-the-art (SOTA) in global placement, their core optimization algorithms remain heavily dependent on heuristics and customized components, such as initialization strategies, preconditioning methods, and line search techniques. This paper presents an automated framework that leverages large language models (LLM) to evolve optimization algorithms for global placement. We first generate diverse candidate algorithms using LLM through carefully crafted prompts. Then we introduce an LLM-based genetic flow to evolve selected candidate algorithms. The discovered optimization algorithms exhibit substantial performance improvements across many benchmarks. Specifically, Our design-case-specific discovered algorithms achieve average HPWL improvements of \textbf{5.05\%}, \text{5.29\%} and \textbf{8.30\%} on MMS, ISPD2005 and ISPD2019 benchmarks, and up to \textbf{17\%} improvements on individual cases. Additionally, the discovered algorithms demonstrate good generalization ability and are complementary to existing parameter-tuning methods.