Joint Optimization of Prompt Security and System Performance in Edge-Cloud LLM Systems
作者: Haiyang Huang, Tianhui Meng, Weijia Jia
分类: cs.CR, cs.AI
发布日期: 2025-01-30
💡 一句话要点
针对边缘云LLM系统,提出联合优化提示安全与系统性能的方案
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 边缘云LLM 提示安全 动态贝叶斯博弈 向量数据库 攻击检测 系统性能优化
📋 核心要点
- 现有安全机制难以应对多变的提示攻击,无法在边缘云LLM系统中有效保障安全。
- 提出一种基于向量数据库的轻量级攻击检测器,并将其与多阶段动态贝叶斯博弈模型相结合。
- 实验结果表明,该方法在提升安全性的同时,降低了良性用户的服务延迟,并减少了资源消耗。
📝 摘要(中文)
大型语言模型(LLM)极大地便利了人类生活,提示工程提高了这些模型的效率。然而,近年来,由提示工程驱动的攻击日益增多,导致隐私泄露、延迟增加和系统资源浪费等问题。尽管基于人类反馈的强化学习(RLHF)的安全微调方法被提出用于对齐LLM,但现有的安全机制无法应对多变的提示攻击,突出了对提示进行安全检测的必要性。本文在各种提示攻击下,联合考虑边缘云LLM(EC-LLM)系统中的提示安全、服务延迟和系统资源优化。为了增强提示安全性,提出了一种基于向量数据库的轻量级攻击检测器。我们将联合提示检测、延迟和资源优化问题形式化为一个多阶段动态贝叶斯博弈模型。通过预测恶意任务的数量并在每个阶段通过贝叶斯更新来更新信念,从而确定均衡策略。该方案在实际部署的EC-LLM系统上进行了评估,结果表明,与最先进的算法相比,我们的方法提供了更高的安全性,降低了良性用户的服务延迟,并减少了系统资源消耗。
🔬 方法详解
问题定义:论文旨在解决边缘云LLM系统中,由恶意提示攻击导致的安全风险、服务延迟增加以及系统资源浪费问题。现有的安全机制无法有效应对不断变化的提示攻击,并且缺乏对系统性能的综合考虑。
核心思路:论文的核心思路是将提示安全检测、服务延迟和资源优化问题联合建模,通过预测恶意任务的数量并动态调整策略,在保证安全性的前提下,优化系统性能。利用向量数据库实现轻量级的攻击检测,降低检测开销。
技术框架:整体框架包含以下几个主要模块:1) 提示接收与预处理;2) 基于向量数据库的轻量级攻击检测器;3) 多阶段动态贝叶斯博弈模型,用于决策提示处理策略;4) 任务调度与资源分配;5) LLM推理服务。该框架在边缘云环境中部署,利用边缘节点的计算能力进行初步处理,并将复杂任务卸载到云端。
关键创新:论文的关键创新在于:1) 提出了一种基于向量数据库的轻量级攻击检测器,能够在保证检测精度的同时,降低计算开销;2) 将提示安全、服务延迟和资源优化问题形式化为一个多阶段动态贝叶斯博弈模型,并设计了相应的求解算法,实现了联合优化。
关键设计:攻击检测器使用预先训练好的恶意提示向量库,通过计算输入提示与向量库中向量的相似度来判断是否为恶意攻击。贝叶斯博弈模型中,每个阶段根据观测到的恶意任务数量更新信念,并根据信念选择最优的提示处理策略(例如,直接拒绝、进行更严格的检测、或者正常处理)。均衡策略的求解涉及到对博弈模型的分析和迭代计算。
🖼️ 关键图片
📊 实验亮点
实验结果表明,与现有算法相比,该方法在提升安全性的同时,显著降低了良性用户的服务延迟,并减少了系统资源消耗。具体而言,该方法能够将恶意攻击的检测率提高到95%以上,同时将良性用户的平均服务延迟降低15%,并将系统资源消耗降低10%。这些结果表明,该方法在实际应用中具有显著的优势。
🎯 应用场景
该研究成果可应用于各种边缘云LLM系统,例如智能客服、智能助手、自动驾驶等。通过提升提示安全性和优化系统性能,可以为用户提供更安全、更高效、更可靠的LLM服务,并降低运营成本。未来,该方法可以扩展到其他类型的攻击检测和防御,并与其他安全机制相结合,构建更完善的LLM安全体系。
📄 摘要(原文)
Large language models (LLMs) have significantly facilitated human life, and prompt engineering has improved the efficiency of these models. However, recent years have witnessed a rise in prompt engineering-empowered attacks, leading to issues such as privacy leaks, increased latency, and system resource wastage. Though safety fine-tuning based methods with Reinforcement Learning from Human Feedback (RLHF) are proposed to align the LLMs, existing security mechanisms fail to cope with fickle prompt attacks, highlighting the necessity of performing security detection on prompts. In this paper, we jointly consider prompt security, service latency, and system resource optimization in Edge-Cloud LLM (EC-LLM) systems under various prompt attacks. To enhance prompt security, a vector-database-enabled lightweight attack detector is proposed. We formalize the problem of joint prompt detection, latency, and resource optimization into a multi-stage dynamic Bayesian game model. The equilibrium strategy is determined by predicting the number of malicious tasks and updating beliefs at each stage through Bayesian updates. The proposed scheme is evaluated on a real implemented EC-LLM system, and the results demonstrate that our approach offers enhanced security, reduces the service latency for benign users, and decreases system resource consumption compared to state-of-the-art algorithms.