Noise-Aware Misclassification Attack Detection in Collaborative DNN Inference

📄 arXiv: 2603.17914v1 📥 PDF

作者: Shima Yousefi, Saptarshi Debroy

分类: cs.CV

发布日期: 2026-03-18

备注: This work has been accepted for publication in IEEE/ACM CCGrid 2026


💡 一句话要点

提出噪声感知的VAE框架,用于检测协同DNN推理中的恶意数据注入攻击。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 协同推理 恶意攻击检测 变分自编码器 噪声感知 异常检测

📋 核心要点

  1. 协同DNN推理将部分处理的数据卸载到边缘服务器,易受恶意数据注入攻击,导致难以检测的误分类,尤其是在噪声环境下。
  2. 论文提出一种半灰盒、噪声感知的异常检测框架,利用变分自编码器(VAE)学习正常数据的分布,检测对抗样本的偏差。
  3. 实验结果表明,该方法在实际噪声条件下具有良好的鲁棒性,AUROC最高可达90%,但特征相似性和高噪声会影响检测效果。

📝 摘要(中文)

本文提出了一种噪声感知的异常检测框架,用于检测协同深度神经网络(DNN)推理中,恶意数据注入导致的隐蔽性误分类攻击。该框架基于变分自编码器(VAE),能够捕获对抗性操纵引起的偏差。该框架融合了一种鲁棒的噪声感知特征,用于捕捉环境噪声的特征行为,从而提高检测精度并降低误报率。在流行的对象分类DNN上的评估表明,该检测方法在实际噪声条件下具有鲁棒性(在各种DNN配置下,AUROC高达90%),同时也揭示了特征相似性和噪声水平升高带来的局限性。

🔬 方法详解

问题定义:协同DNN推理中,资源受限的终端设备将部分处理的数据卸载到边缘服务器,容易受到恶意数据注入攻击。这些攻击旨在导致隐蔽的误分类,难以检测,尤其是在存在环境噪声的情况下。现有的方法在噪声环境下检测精度较低,容易产生误报。

核心思路:论文的核心思路是利用变分自编码器(VAE)学习正常数据的潜在表示,并结合噪声感知特征,从而区分正常数据和被恶意篡改的数据。VAE能够捕捉数据的分布特征,而噪声感知特征则可以提高模型对噪声的鲁棒性。通过检测重构误差或潜在空间中的偏差,可以识别出恶意注入的数据。

技术框架:该框架主要包含以下几个模块:1) 数据预处理:对输入数据进行必要的预处理,例如归一化。2) 特征提取:提取输入数据的特征,包括原始特征和噪声感知特征。3) VAE编码器:将提取的特征编码到潜在空间。4) VAE解码器:从潜在空间重构输入数据。5) 异常检测:基于重构误差或潜在空间中的偏差,判断输入数据是否为恶意注入的数据。

关键创新:该方法最重要的创新点在于引入了噪声感知特征,并将其与VAE结合,从而提高了模型在噪声环境下的检测精度。传统的异常检测方法通常忽略噪声的影响,导致在噪声环境下性能下降。该方法通过显式地建模噪声,提高了模型的鲁棒性。

关键设计:噪声感知特征的设计是关键。具体实现方式未知,但应能有效捕捉环境噪声的统计特性。VAE的网络结构需要根据具体应用进行调整,损失函数通常包括重构损失和KL散度损失。重构损失用于衡量重构数据的质量,KL散度损失用于约束潜在空间的分布。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在各种DNN配置下,AUROC最高可达90%,证明了其在实际噪声条件下的鲁棒性。与没有噪声感知特征的方法相比,该方法能够显著提高检测精度,并降低误报率。实验还揭示了特征相似性和噪声水平升高带来的局限性,为未来的研究提供了方向。

🎯 应用场景

该研究成果可应用于各种边缘计算场景,例如智能监控、自动驾驶、工业物联网等。通过检测恶意数据注入攻击,可以提高系统的安全性和可靠性,防止恶意攻击者篡改数据,从而保证系统的正常运行。该研究对于提升边缘AI系统的安全性具有重要意义。

📄 摘要(原文)

Collaborative inference of object classification Deep neural Networks (DNNs) where resource-constrained end-devices offload partially processed data to remote edge servers to complete end-to-end processing, is becoming a key enabler of edge-AI. However, such edge-offloading is vulnerable to malicious data injections leading to stealthy misclassifications that are tricky to detect, especially in the presence of environmental noise. In this paper, we propose a semi-gray-box and noise- aware anomaly detection framework fueled by a variational autoencoder (VAE) to capture deviations caused by adversarial manipulation. The proposed framework incorporates a robust noise-aware feature that captures the characteristic behavior of environmental noise to improve detection accuracy while reducing false alarm rates. Our evaluation with popular object classification DNNs demonstrate the robustness of the proposed detection (up to 90% AUROC across DNN configurations) under realistic noisy conditions while revealing limitations caused by feature similarity and elevated noise levels.