Cisco Integrated AI Security and Safety Framework Report

📄 arXiv: 2512.12921v1 📥 PDF

作者: Amy Chang, Tiffany Saade, Sanket Mendapara, Adam Swanda, Ankit Garg

分类: cs.CR, cs.AI

发布日期: 2025-12-15


💡 一句话要点

思科提出集成AI安全与安全框架,应对多维度AI风险

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: AI安全 AI安全框架 威胁建模 风险评估 生命周期安全 人工智能 安全风险

📋 核心要点

  1. 现有AI安全框架仅覆盖多维AI风险空间的部分切片,缺乏统一性和全面性。
  2. 提出集成AI安全与安全框架,以统一的生命周期视角对AI风险进行分类、集成和操作。
  3. 该框架旨在用于威胁识别、风险优先级排序,并可扩展到新兴的AI应用场景。

📝 摘要(中文)

人工智能(AI)系统正被迅速采用,并日益渗透到关键领域。这在提高人类生产力的同时,也扩大了攻击面。威胁包括内容安全故障、模型和数据完整性受损、运行时操纵以及生态系统风险。现有框架虽提供了有价值的视角,但仅覆盖了多维空间的一部分。本文提出了思科的集成AI安全与安全框架(“AI安全框架”),这是一个统一的、生命周期感知的分类和操作框架,用于对所有AI风险进行分类、集成和操作。它集成了跨模态、代理、管道和更广泛生态系统的AI安全和AI安全。该框架旨在用于威胁识别、红队演练、风险优先级排序,且范围全面,可扩展到多模态环境、人形机器人、可穿戴设备和传感基础设施中的新兴部署。我们分析了现有框架的差距,讨论了框架的设计原则,并展示了该分类法如何为理解现代AI系统如何失效、对手如何利用这些失效以及组织如何在AI生命周期中构建防御提供结构。

🔬 方法详解

问题定义:当前人工智能系统面临着日益增长的安全风险,包括内容安全问题、模型和数据完整性威胁、运行时操纵以及生态系统风险。现有的安全框架,如MITRE ATLAS、NIST AI 100-2 AML taxonomy和OWASP Top 10s for LLMs,虽然提供了有价值的视角,但它们仅覆盖了AI风险空间的不同维度,缺乏一个统一和全面的解决方案。

核心思路:本文的核心思路是构建一个集成的人工智能安全与安全框架,该框架能够全面覆盖AI系统的整个生命周期,并能够对各种AI风险进行分类、集成和操作。该框架旨在提供一个统一的视角,帮助组织更好地理解和管理AI安全风险。

技术框架:思科的集成AI安全与安全框架包含以下主要模块:1)风险分类:对AI系统面临的各种风险进行分类,包括内容安全、模型安全、运行时安全和生态系统安全。2)风险集成:将不同类型的风险集成到一个统一的框架中,以便更好地理解它们之间的相互作用。3)风险操作:提供一套操作指南,帮助组织识别、评估和缓解AI安全风险。该框架还考虑了AI系统的整个生命周期,从设计到部署和维护。

关键创新:该框架的关键创新在于其统一性和全面性。它不仅涵盖了AI系统的各个方面,还考虑了AI系统的整个生命周期。此外,该框架还具有可扩展性,可以适应新兴的AI应用场景,如多模态环境、人形机器人和可穿戴设备。

关键设计:框架的设计原则包括:1)全面性:覆盖AI系统的各个方面。2)统一性:将不同类型的风险集成到一个统一的框架中。3)可操作性:提供一套操作指南,帮助组织识别、评估和缓解AI安全风险。4)可扩展性:可以适应新兴的AI应用场景。具体的参数设置、损失函数、网络结构等技术细节未在摘要中提及,属于未知信息。

📊 实验亮点

论文提出了一个统一的、生命周期感知的AI安全框架,并分析了现有框架的差距。该框架旨在用于威胁识别、风险优先级排序,并可扩展到新兴的AI应用场景。具体的性能数据和提升幅度未在摘要中提及,属于未知信息。

🎯 应用场景

该框架可应用于各种领域,包括企业安全、消费者平台、嵌入式系统等。它能够帮助组织识别和缓解AI安全风险,提高AI系统的可靠性和安全性。未来,该框架有望成为AI安全领域的重要标准,并推动AI技术的健康发展。

📄 摘要(原文)

Artificial intelligence (AI) systems are being readily and rapidly adopted, increasingly permeating critical domains: from consumer platforms and enterprise software to networked systems with embedded agents. While this has unlocked potential for human productivity gains, the attack surface has expanded accordingly: threats now span content safety failures (e.g., harmful or deceptive outputs), model and data integrity compromise (e.g., poisoning, supply-chain tampering), runtime manipulations (e.g., prompt injection, tool and agent misuse), and ecosystem risks (e.g., orchestration abuse, multi-agent collusion). Existing frameworks such as MITRE ATLAS, National Institute of Standards and Technology (NIST) AI 100-2 Adversarial Machine Learning (AML) taxonomy, and OWASP Top 10s for Large Language Models (LLMs) and Agentic AI Applications provide valuable viewpoints, but each covers only slices of this multi-dimensional space. This paper presents Cisco's Integrated AI Security and Safety Framework ("AI Security Framework"), a unified, lifecycle-aware taxonomy and operationalization framework that can be used to classify, integrate, and operationalize the full range of AI risks. It integrates AI security and AI safety across modalities, agents, pipelines, and the broader ecosystem. The AI Security Framework is designed to be practical for threat identification, red-teaming, risk prioritization, and it is comprehensive in scope and can be extensible to emerging deployments in multimodal contexts, humanoids, wearables, and sensory infrastructures. We analyze gaps in prevailing frameworks, discuss design principles for our framework, and demonstrate how the taxonomy provides structure for understanding how modern AI systems fail, how adversaries exploit these failures, and how organizations can build defenses across the AI lifecycle that evolve alongside capability advancements.