Organizational Adaptation to Generative AI in Cybersecurity: A Systematic Review

📄 arXiv: 2506.12060v1 📥 PDF

作者: Christopher Nott

分类: cs.CR, cs.AI, cs.CY

发布日期: 2025-05-31

备注: 38 pages, 1 table, 1 figure


💡 一句话要点

提出生成性人工智能集成框架以应对网络安全挑战

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 生成性人工智能 网络安全 威胁建模 风险检测 人工智能集成 机器学习 安全框架 数据质量

📋 核心要点

  1. 现有的网络安全威胁建模方法在应对生成性人工智能的挑战时存在不足,尤其是在数据质量和可解释性方面。
  2. 论文提出通过集成大型语言模型和生成性人工智能框架,优化风险检测和响应流程,以提升网络安全的适应能力。
  3. 研究分析了25项相关研究,证实成熟的安全基础设施能显著提高组织在生成性人工智能集成中的成功率。

📝 摘要(中文)

网络安全组织正在通过修改框架和混合操作流程来适应生成性人工智能(GenAI)的集成,其成功受到现有安全成熟度、监管要求以及人力资本和基础设施投资的影响。本研究采用系统文献分析和比较案例研究的方法,考察网络安全组织如何调整其威胁建模框架和操作流程,以应对生成性人工智能的集成。研究发现,组织在威胁建模方法上发生了显著转变,从传统的基于签名的系统转向集成人工智能能力的框架。研究识别出三种主要的适应模式:大型语言模型在安全应用中的集成、生成性人工智能框架用于风险检测和响应自动化,以及人工智能/机器学习在威胁狩猎中的集成。成熟的安全基础设施使得金融和关键基础设施领域的组织在治理、专门的人工智能团队和强有力的事件响应流程方面表现出更高的准备度。

🔬 方法详解

问题定义:本论文旨在解决网络安全组织在集成生成性人工智能时面临的威胁建模和操作流程调整问题。现有方法在应对新兴威胁时的灵活性和适应性不足,尤其是在数据质量和可解释性方面存在挑战。

核心思路:论文的核心解决思路是通过引入大型语言模型和生成性人工智能框架,重塑传统的威胁建模方法,以实现更高效的风险检测和响应自动化。这种设计旨在提升组织对复杂威胁的应对能力。

技术框架:整体架构包括三个主要模块:1) 大型语言模型集成,用于增强安全应用的智能;2) 生成性人工智能框架,专注于风险检测和响应自动化;3) 人工智能/机器学习模块,支持威胁狩猎和主动防御。

关键创新:最重要的技术创新点在于将生成性人工智能与传统安全框架相结合,形成新的适应模式。这种方法与现有的基于签名的系统本质上不同,能够更好地应对动态变化的网络威胁。

关键设计:关键设计包括对数据质量的严格把控、可解释性要求的满足,以及针对特定行业的治理框架的建立。此外,组织需设立专门的人工智能团队,以确保技术的有效实施和持续优化。

📊 实验亮点

研究表明,拥有成熟安全基础设施的组织在集成生成性人工智能方面表现出更高的成功率,特别是在金融和关键基础设施领域。通过实施新的威胁建模框架,组织能够显著提高风险检测和响应的效率,具体提升幅度未知。

🎯 应用场景

该研究的潜在应用领域包括金融、关键基础设施和其他高风险行业,能够为网络安全专业人士提供实施生成性人工智能系统的实用见解。通过优化威胁建模和响应流程,组织可以更有效地应对新兴的网络威胁,提升整体安全性。

📄 摘要(原文)

Cybersecurity organizations are adapting to GenAI integration through modified frameworks and hybrid operational processes, with success influenced by existing security maturity, regulatory requirements, and investments in human capital and infrastructure. This qualitative research employs systematic document analysis and comparative case study methodology to examine how cybersecurity organizations adapt their threat modeling frameworks and operational processes to address generative artificial intelligence integration. Through examination of 25 studies from 2022 to 2025, the research documents substantial transformation in organizational approaches to threat modeling, moving from traditional signature-based systems toward frameworks incorporating artificial intelligence capabilities. The research identifies three primary adaptation patterns: Large Language Model integration for security applications, GenAI frameworks for risk detection and response automation, and AI/ML integration for threat hunting. Organizations with mature security infrastructures, particularly in finance and critical infrastructure sectors, demonstrate higher readiness through structured governance approaches, dedicated AI teams, and robust incident response processes. Organizations achieve successful GenAI integration when they maintain appropriate human oversight of automated systems, address data quality concerns and explainability requirements, and establish governance frameworks tailored to their specific sectors. Organizations encounter ongoing difficulties with privacy protection, bias reduction, personnel training, and defending against adversarial attacks. This work advances understanding of how organizations adopt innovative technologies in high-stakes environments and offers actionable insights for cybersecurity professionals implementing GenAI systems.