SENTAUR: Security EnhaNced Trojan Assessment Using LLMs Against Undesirable Revisions
作者: Jitendra Bhandari, Rajat Sadhukhan, Prashanth Krishnamurthy, Farshad Khorrami, Ramesh Karri
分类: cs.CR, cs.AI, cs.AR
发布日期: 2024-07-17
💡 一句话要点
SENTAUR:利用大语言模型增强硬件木马评估,应对不良修订
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 硬件木马 大语言模型 安全评估 RTL设计 集成电路安全
📋 核心要点
- 现有硬件木马检测方法依赖人工创建的少量样本,且难以泛化,无法覆盖所有潜在威胁。
- SENTAUR利用大语言模型理解RTL设计,并自动生成大量有效的、可综合的硬件木马实例。
- 实验表明,SENTAUR能够快速生成并评估硬件木马,无需学习期,并能有效应对不良修订。
📝 摘要(中文)
全球分布的集成电路供应链因不可信的第三方而带来风险,包括硬件木马(HT)的意外使用、插入的第三方知识产权(3P-IP)或电子设计自动化(EDA)流程。硬件木马可能引入隐蔽行为,阻止IC按预期工作,或通过侧信道泄露敏感数据。为了对抗硬件木马,快速检查HT场景至关重要。Trust-Hub基准是评估防御措施的良好起点,但它们仅包含HT设计中手动创建的HT子集。此外,HT可能在综合过程中消失。我们提出了一个大语言模型(LLM)框架SENTAUR,通过学习寄存器传输级(RTL)设计的规范、描述和HT效果的自然语言描述,为RTL设计生成一套合法的HT。现有工具和基准测试存在局限性;它们需要学习期来构建ML模型以模仿威胁模型,并且难以重现。SENTAUR可以利用LLM快速生成HT实例,无需任何学习期并清理HT,从而促进其快速评估。SENTAUR的评估包括从TrustHub和其他地方生成有效的、可综合的和实用的HT,调查RTL中有效载荷/触发器的影响。虽然我们的评估侧重于HT插入,但SENTAUR可以推广到自动转换RTL代码以具有定义的功能修改。
🔬 方法详解
问题定义:现有硬件木马检测和评估方法依赖于人工创建的少量硬件木马样本,这些样本难以覆盖所有可能的攻击场景,且在综合过程中可能消失。此外,现有方法通常需要较长的学习周期来构建机器学习模型,以模拟威胁模型,并且难以复现。
核心思路:SENTAUR的核心思路是利用大语言模型(LLM)的强大自然语言理解和生成能力,自动生成大量有效的、可综合的硬件木马实例。通过学习RTL设计的规范、描述和硬件木马效果的自然语言描述,LLM能够理解设计的意图,并生成符合设计规范但又包含恶意行为的硬件木马。
技术框架:SENTAUR框架主要包含以下几个阶段:1) RTL设计规范和描述输入;2) LLM学习和理解设计规范;3) LLM生成硬件木马候选实例;4) 硬件木马实例的清洗和验证,确保其可综合性和有效性;5) 对生成的硬件木马进行评估,分析其对系统功能和安全性的影响。
关键创新:SENTAUR的关键创新在于利用LLM自动生成硬件木马,无需人工干预和学习周期。与现有方法相比,SENTAUR能够快速生成大量多样化的硬件木马实例,从而更全面地评估系统的安全性。此外,SENTAUR还能够自动清洗和验证生成的硬件木马,确保其可综合性和有效性。
关键设计:SENTAUR的关键设计包括:1) 如何将RTL设计规范和描述有效地输入到LLM中;2) 如何利用LLM生成具有恶意行为的硬件木马实例;3) 如何自动清洗和验证生成的硬件木马,确保其可综合性和有效性。论文中并未详细说明LLM的具体选择和参数设置,以及清洗和验证的具体算法,这些可能是未来的研究方向。
🖼️ 关键图片
📊 实验亮点
SENTAUR能够快速生成有效的、可综合的和实用的硬件木马,无需任何学习期。通过对TrustHub和其他来源的RTL设计进行评估,SENTAUR能够有效地调查RTL中有效载荷/触发器的影响,从而验证了其在硬件木马评估方面的有效性。
🎯 应用场景
SENTAUR可应用于集成电路供应链安全评估、硬件安全漏洞挖掘、以及自动化安全测试等领域。通过自动生成大量硬件木马实例,SENTAUR能够帮助设计者和安全专家更全面地评估系统的安全性,并及时发现潜在的安全漏洞,从而提高集成电路的安全性。
📄 摘要(原文)
A globally distributed IC supply chain brings risks due to untrusted third parties. The risks span inadvertent use of hardware Trojan (HT), inserted Intellectual Property (3P-IP) or Electronic Design Automation (EDA) flows. HT can introduce stealthy HT behavior, prevent an IC work as intended, or leak sensitive data via side channels. To counter HTs, rapidly examining HT scenarios is a key requirement. While Trust-Hub benchmarks are a good starting point to assess defenses, they encompass a small subset of manually created HTs within the expanse of HT designs. Further, the HTs may disappear during synthesis. We propose a large language model (LLM) framework SENTAUR to generate a suite of legitimate HTs for a Register Transfer Level (RTL) design by learning its specifications, descriptions, and natural language descriptions of HT effects. Existing tools and benchmarks are limited; they need a learning period to construct an ML model to mimic the threat model and are difficult to reproduce. SENTAUR can swiftly produce HT instances by leveraging LLMs without any learning period and sanitizing the HTs facilitating their rapid assessment. Evaluation of SENTAUR involved generating effective, synthesizable, and practical HTs from TrustHub and elsewhere, investigating impacts of payloads/triggers at the RTL. While our evaluation focused on HT insertion, SENTAUR can generalize to automatically transform an RTL code to have defined functional modifications.