Non-Uniform Illumination Attack for Fooling Convolutional Neural Networks

📄 arXiv: 2409.03458v1 📥 PDF

作者: Akshay Jain, Shiv Ram Dubey, Satish Kumar Singh, KC Santosh, Bidyut Baran Chaudhuri

分类: cs.CV

发布日期: 2024-09-05


💡 一句话要点

提出非均匀光照攻击(NUI)方法,评估并提升CNN在图像分类任务中的鲁棒性。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 对抗攻击 非均匀光照 图像分类 卷积神经网络 鲁棒性 防御性训练 图像扰动

📋 核心要点

  1. 现有CNN模型容易受到微小图像扰动的影响,在实际应用中存在安全隐患,需要提升模型的鲁棒性。
  2. 论文提出一种非均匀光照(NUI)攻击方法,通过施加不同的光照掩码来扰乱图像,模拟真实场景中的光照变化。
  3. 实验表明,NUI攻击能显著降低CNN模型的分类精度。通过将NUI攻击图像加入训练集,可以有效提升模型对该类攻击的防御能力。

📝 摘要(中文)

卷积神经网络(CNN)取得了显著进展,但仍易受图像扰动的影响。本研究提出了一种新颖的非均匀光照(NUI)攻击技术,通过使用不同的NUI掩码对图像进行细微修改。在CIFAR10、TinyImageNet和CalTech256等数据集上进行了大量实验,重点关注图像分类,并使用了12种不同的NUI攻击模型。评估了VGG、ResNet、MobilenetV3-small和InceptionV3模型在NUI攻击下的鲁棒性。结果表明,CNN模型在受到NUI攻击时,分类精度显著下降,表明它们在非均匀光照下的脆弱性。为了缓解这种情况,提出了一种防御策略,即将通过新的NUI变换生成的NUI攻击图像添加到训练集中。结果表明,当面对受NUI攻击影响的扰动图像时,CNN模型的性能得到了显著提高。该策略旨在增强CNN模型对NUI攻击的抵抗力。

🔬 方法详解

问题定义:论文旨在解决卷积神经网络(CNNs)在面对非均匀光照条件下的脆弱性问题。现有的CNN模型容易受到微小图像扰动的影响,导致分类精度显著下降,这限制了它们在实际场景中的应用,例如自动驾驶、安防监控等。因此,如何提高CNN模型在非均匀光照条件下的鲁棒性是一个重要的研究问题。

核心思路:论文的核心思路是通过模拟真实世界中可能出现的非均匀光照条件,生成对抗样本来攻击CNN模型,并利用这些对抗样本进行防御性训练,从而提高模型对非均匀光照攻击的抵抗能力。这种方法旨在使模型学习到对光照变化不敏感的特征,从而提高其泛化能力。

技术框架:该研究的技术框架主要包含两个阶段:攻击阶段和防御阶段。在攻击阶段,首先定义了多种非均匀光照(NUI)攻击模型,这些模型通过不同的方式生成NUI掩码,然后将这些掩码应用于原始图像,生成对抗样本。在防御阶段,将生成的对抗样本添加到原始训练集中,重新训练CNN模型。通过这种方式,模型可以学习到对NUI攻击具有鲁棒性的特征。

关键创新:论文的关键创新在于提出了一种新的非均匀光照(NUI)攻击技术,该技术能够有效地降低CNN模型的分类精度。与传统的对抗攻击方法不同,NUI攻击模拟了真实世界中可能出现的光照变化,因此更具有实际意义。此外,论文还提出了一种基于对抗训练的防御策略,该策略能够显著提高模型对NUI攻击的抵抗能力。

关键设计:在NUI攻击中,论文使用了12种不同的NUI攻击模型,这些模型通过不同的参数设置来控制光照变化的强度和方向。在防御性训练中,论文将NUI攻击生成的对抗样本与原始图像以一定的比例混合,然后使用标准的交叉熵损失函数进行训练。具体的网络结构包括VGG、ResNet、MobilenetV3-small和InceptionV3等。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,NUI攻击能够显著降低VGG、ResNet、MobilenetV3-small和InceptionV3等模型的分类精度。例如,在CIFAR10数据集上,原始模型的分类精度在受到NUI攻击后下降了超过50%。通过将NUI攻击图像加入训练集进行防御性训练,模型的分类精度得到了显著提升,恢复到接近原始模型的水平。这表明该防御策略能够有效地提高模型对NUI攻击的抵抗能力。

🎯 应用场景

该研究成果可应用于提升计算机视觉系统在光照条件不稳定环境下的性能,例如自动驾驶、安防监控、医学图像分析等领域。通过提高模型对非均匀光照的鲁棒性,可以减少误判和漏判,提高系统的可靠性和安全性。此外,该研究提出的防御策略也可以推广到其他类型的对抗攻击防御中。

📄 摘要(原文)

Convolutional Neural Networks (CNNs) have made remarkable strides; however, they remain susceptible to vulnerabilities, particularly in the face of minor image perturbations that humans can easily recognize. This weakness, often termed as 'attacks', underscores the limited robustness of CNNs and the need for research into fortifying their resistance against such manipulations. This study introduces a novel Non-Uniform Illumination (NUI) attack technique, where images are subtly altered using varying NUI masks. Extensive experiments are conducted on widely-accepted datasets including CIFAR10, TinyImageNet, and CalTech256, focusing on image classification with 12 different NUI attack models. The resilience of VGG, ResNet, MobilenetV3-small and InceptionV3 models against NUI attacks are evaluated. Our results show a substantial decline in the CNN models' classification accuracy when subjected to NUI attacks, indicating their vulnerability under non-uniform illumination. To mitigate this, a defense strategy is proposed, including NUI-attacked images, generated through the new NUI transformation, into the training set. The results demonstrate a significant enhancement in CNN model performance when confronted with perturbed images affected by NUI attacks. This strategy seeks to bolster CNN models' resilience against NUI attacks.