Dr.~RTL: Autonomous Agentic RTL Optimization through Tool-Grounded Self-Improvement

📄 arXiv: 2604.14989v1 📥 PDF

作者: Wenji Fang, Yao Lu, Shang Liu, Jing Wang, Ziyan Guo, Junxian He, Fengbin Tu, Zhiyao Xie

分类: cs.AI, cs.AR

发布日期: 2026-04-16


💡 一句话要点

Dr.~RTL:通过工具驱动的自主Agent持续优化RTL设计

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: RTL优化 自主Agent 机器学习 EDA工具 硬件设计

📋 核心要点

  1. 现有RTL优化方法依赖手动降级的小规模设计、弱开源工具和粗略的设计级反馈,难以应用于实际场景。
  2. Dr. RTL构建了一个基于多Agent的闭环优化框架,通过并行RTL重写和工具评估,实现RTL时序优化。
  3. Dr. RTL通过组相对技能学习,将优化经验提炼成可重用的技能库,在20个真实RTL设计上实现了显著的PPA提升。

📝 摘要(中文)

大型语言模型(LLM)的最新进展激发了人们对自动RTL优化的兴趣,以获得更好的性能、功耗和面积(PPA)。然而,现有的方法距离实际的RTL优化还很远。它们的评估设置通常是不切实际的:它们在手动降级的、小规模的RTL设计上进行测试,并且依赖于弱的开源工具。它们的优化方法也受到限制,依赖于粗略的设计级反馈和简单的预定义重写规则。为了解决这些局限性,我们提出了Dr. RTL,一个在实际评估环境中进行RTL时序优化的agent框架,通过可重用的优化技能进行持续的自我改进。我们建立了一个具有更具挑战性的RTL设计和工业EDA工作流程的实际评估环境。在此设置中,Dr. RTL通过用于关键路径分析、并行RTL重写和基于工具的评估的多agent框架执行闭环优化。我们进一步引入了组相对技能学习,该学习比较并行RTL重写并将优化经验提炼成可解释的技能库。目前,该库包含47个模式-策略条目,用于跨设计重用,以提高PPA并加速收敛,并且它可以随着时间的推移不断发展。在20个真实RTL设计上的评估表明,Dr. RTL实现了平均WNS/TNS改进21%/17%,面积减少6%,优于行业领先的商业综合工具。

🔬 方法详解

问题定义:现有RTL优化方法在实际应用中面临诸多挑战。它们通常在规模较小、经过手动降级的RTL设计上进行测试,无法代表真实场景的复杂性。此外,这些方法依赖于性能较弱的开源工具,并且优化策略较为简单,仅依赖于粗略的设计级反馈和预定义的重写规则,难以实现精细化的优化。

核心思路:Dr. RTL的核心思路是构建一个自主的、基于Agent的RTL优化框架,该框架能够在一个更贴近实际的评估环境中进行闭环优化。通过引入多Agent协作、并行RTL重写和工具驱动的评估,Dr. RTL能够更有效地探索优化空间,并从优化过程中学习可重用的技能。

技术框架:Dr. RTL采用多Agent框架,包含以下主要模块:关键路径分析Agent负责识别RTL设计中的关键路径;并行RTL重写Agent负责根据不同的优化策略并行地重写RTL代码;工具驱动的评估模块则利用工业级的EDA工具对重写后的RTL设计进行评估,并提供反馈。整个框架通过闭环迭代的方式,不断优化RTL设计。

关键创新:Dr. RTL的关键创新在于引入了组相对技能学习(Group-Relative Skill Learning)机制。该机制通过比较并行RTL重写的结果,并将优化经验提炼成可解释的技能库。这个技能库包含了模式-策略条目,可以跨设计重用,从而提高PPA并加速收敛。这种从经验中学习并积累知识的能力是Dr. RTL区别于现有方法的本质特征。

关键设计:Dr. RTL的技能库是其核心组成部分,目前包含47个模式-策略条目。这些条目描述了在特定RTL代码模式下应该采取的优化策略。技能学习的过程涉及到对并行RTL重写结果的比较,以及对不同策略的有效性进行评估。具体的参数设置和损失函数等技术细节在论文中可能未详细描述,属于未知信息。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

Dr. RTL在20个真实RTL设计上进行了评估,实验结果表明,Dr. RTL能够平均提升WNS(Worst Negative Slack)21%,TNS(Total Negative Slack)17%,同时面积减少6%,显著优于行业领先的商业综合工具。这些数据充分证明了Dr. RTL在实际RTL优化中的有效性和优越性。

🎯 应用场景

Dr. RTL具有广泛的应用前景,可用于各种数字电路设计的RTL优化,包括处理器、存储器、通信芯片等。该研究成果能够显著提升芯片的性能、降低功耗和减小面积,从而提高产品的竞争力。此外,Dr. RTL的自主优化能力可以减轻工程师的负担,缩短设计周期,加速芯片的上市时间。

📄 摘要(原文)

Recent advances in large language models (LLMs) have sparked growing interest in automatic RTL optimization for better performance, power, and area (PPA). However, existing methods are still far from realistic RTL optimization. Their evaluation settings are often unrealistic: they are tested on manually degraded, small-scale RTL designs and rely on weak open-source tools. Their optimization methods are also limited, relying on coarse design-level feedback and simple pre-defined rewriting rules. To address these limitations, we present Dr. RTL, an agentic framework for RTL timing optimization in a realistic evaluation environment, with continual self-improvement through reusable optimization skills. We establish a realistic evaluation setting with more challenging RTL designs and an industrial EDA workflow. Within this setting, Dr. RTL performs closed-loop optimization through a multi-agent framework for critical-path analysis, parallel RTL rewriting, and tool-based evaluation. We further introduce group-relative skill learning, which compares parallel RTL rewrites and distills the optimization experience into an interpretable skill library. Currently, this library contains 47 pattern--strategy entries for cross-design reuse to improve PPA and accelerate convergence, and it can continue evolving over time. Evaluated on 20 real-world RTL designs, Dr. RTL achieves average WNS/TNS improvements of 21\%/17\% with a 6\% area reduction over the industry-leading commercial synthesis tool.