POET: Power-Oriented Evolutionary Tuning for LLM-Based RTL PPA Optimization
作者: Heng Ping, Peiyu Zhang, Zhenkun Wang, Shixuan Li, Anzhe Cheng, Wei Yang, Paul Bogdan, Shahin Nazarian
分类: cs.AR, cs.AI
发布日期: 2026-03-19
💡 一句话要点
POET:面向功耗优化的LLM驱动RTL代码演化调优框架
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: RTL优化 功耗优化 大型语言模型 演化算法 差分测试 PPA优化 硬件设计 芯片设计
📋 核心要点
- 现有方法难以保证LLM优化RTL代码后的功能正确性,且在多目标PPA优化中难以有效降低功耗。
- POET框架利用差分测试生成测试用例,确保功能正确性,并采用LLM驱动的演化机制优先降低功耗。
- 实验结果表明,POET在保证功能正确性的前提下,显著降低了RTL设计的功耗,并实现了有竞争力的面积和延迟改进。
📝 摘要(中文)
本文提出了一种名为POET(Power-Oriented Evolutionary Tuning)的框架,旨在利用大型语言模型(LLM)优化RTL代码,从而改进功耗、性能和面积(PPA)。该框架解决了两个关键挑战:一是确保优化后设计的函数正确性,避免LLM的幻觉问题;二是系统地在多目标PPA权衡空间中优先降低功耗。POET引入了一种基于差分测试的测试用例生成流程,将原始设计作为功能oracle,使用确定性仿真生成黄金参考,从而消除了验证过程中的LLM幻觉。在PPA优化方面,POET采用了一种LLM驱动的演化机制,结合非支配排序、功耗优先的层内排序和比例幸存者选择,在无需手动权重调整的情况下,引导搜索朝着帕累托前沿的低功耗区域发展。在RTL-OPT基准测试的40个不同RTL设计上的评估表明,POET实现了100%的功能正确性,在所有40个设计上实现了最佳功耗,并具有竞争力的面积和延迟改进。
🔬 方法详解
问题定义:利用LLM优化RTL代码以改进PPA(功耗、性能、面积)面临两大挑战。首先,LLM可能产生“幻觉”,导致优化后的RTL代码功能错误。其次,在多目标优化中,如何在PPA之间进行权衡,并系统性地优先降低功耗是一个难题。现有方法通常需要手动调整权重,且难以保证功能正确性。
核心思路:POET的核心思路是结合LLM的生成能力和演化算法的搜索能力,在保证功能正确性的前提下,高效地搜索低功耗的RTL代码设计。通过差分测试消除LLM幻觉,并设计功耗优先的演化策略,引导搜索方向。
技术框架:POET框架包含以下主要模块:1) 基于差分测试的测试用例生成器:将原始RTL设计作为黄金参考,生成测试用例以验证LLM优化后的RTL代码的功能正确性。2) LLM驱动的RTL代码优化器:利用LLM生成多种RTL代码变体,以探索不同的PPA权衡。3) 演化算法:采用非支配排序、功耗优先的层内排序和比例幸存者选择,引导搜索朝着低功耗的帕累托前沿发展。
关键创新:POET的关键创新在于:1) 提出了一种基于差分测试的测试用例生成方法,有效解决了LLM优化RTL代码的功能正确性问题。2) 设计了一种功耗优先的演化策略,能够在多目标PPA优化中系统性地降低功耗,而无需手动调整权重。3) 将LLM与演化算法相结合,充分利用了LLM的生成能力和演化算法的搜索能力。
关键设计:差分测试使用确定性仿真生成黄金参考,确保测试的准确性。演化算法中,非支配排序用于确定帕累托前沿,功耗优先的层内排序用于在同一帕累托等级内优先选择功耗较低的设计。比例幸存者选择根据设计的适应度(主要考虑功耗)来确定其在下一代中的生存概率。LLM的prompt工程也至关重要,需要设计合适的prompt来引导LLM生成有效的RTL代码变体。
🖼️ 关键图片
📊 实验亮点
POET在RTL-OPT基准测试的40个不同RTL设计上进行了评估,实现了100%的功能正确性。在所有40个设计上,POET都实现了最佳功耗,并且在面积和延迟方面也取得了具有竞争力的改进。这些结果表明,POET是一种有效且可靠的RTL代码优化框架。
🎯 应用场景
POET框架可应用于各种数字电路设计的RTL代码优化,尤其适用于对功耗有严格要求的场景,如移动设备、物联网设备和高性能计算等。该研究成果有助于提高芯片的能效,延长电池续航时间,降低散热成本,并加速芯片设计周期。
📄 摘要(原文)
Applying large language models (LLMs) to RTL code optimization for improved power, performance, and area (PPA) faces two key challenges: ensuring functional correctness of optimized designs despite LLM hallucination, and systematically prioritizing power reduction within the multi-objective PPA trade-off space. We propose POET (Power-Oriented Evolutionary Tuning), a framework that addresses both challenges. For functional correctness, POET introduces a differential-testing-based testbench generation pipeline that treats the original design as a functional oracle, using deterministic simulation to produce golden references and eliminating LLM hallucination from the verification process. For PPA optimization, POET employs an LLM-driven evolutionary mechanism with non-dominated sorting, power-first intra-level ranking, and proportional survivor selection to steer the search toward the low-power region of the Pareto front without manual weight tuning. Evaluated on the RTL-OPT benchmark across 40 diverse RTL designs, POET achieves 100% functional correctness, the best power on all 40 designs, and competitive area and delay improvements.