Attention-based Adversarial Robust Distillation in Radio Signal Classifications for Low-Power IoT Devices

📄 arXiv: 2506.11892v1 📥 PDF

作者: Lu Zhang, Sangarapillai Lambotharan, Gan Zheng, Guisheng Liao, Basil AsSadhan, Fabio Roli

分类: cs.LG, cs.AI

发布日期: 2025-06-13


💡 一句话要点

提出基于注意力的对抗鲁棒蒸馏方法以解决低功耗IoT设备中的信号分类问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 对抗鲁棒性 变换器 低功耗IoT 无线信号分类 蒸馏训练 注意力机制 对抗样本

📋 核心要点

  1. 现有的基于变换器的无线信号分类方法对对抗样本的攻击存在脆弱性,尤其是在低功耗IoT设备中。
  2. 本文提出了一种紧凑型变换器,通过转移对抗注意力图来增强对抗攻击下的鲁棒性,适应低功耗环境。
  3. 实验结果表明,所提方法在白盒攻击场景下的性能优于现有的最先进技术,展现了良好的防御能力。

📝 摘要(中文)

由于变换器在自然语言处理和计算机视觉等多个应用中的成功,变换器已成功应用于自动调制分类。然而,基于变换器的无线信号分类对精心设计的对抗样本存在脆弱性。为此,本文提出了一种针对对抗样本的防御系统,特别针对低功耗物联网设备的计算效率需求,设计了一种紧凑型变换器。通过将经过鲁棒训练的大型变换器的对抗注意力图转移到紧凑型变换器,提出的方法在白盒场景下超越了现有技术,包括快速梯度法和投影梯度下降攻击。我们还探讨了对抗样本在不同架构之间的可转移性。

🔬 方法详解

问题定义:本文旨在解决基于变换器的无线信号分类在对抗样本攻击下的脆弱性,尤其是在低功耗物联网设备中的应用场景。现有方法在鲁棒训练方面的优势在紧凑型变换器中难以实现。

核心思路:本文的核心思路是通过将大型变换器的对抗注意力图转移到紧凑型变换器,从而增强其在对抗攻击下的鲁棒性。这种设计旨在提高紧凑型变换器的防御能力,同时保持其计算效率。

技术框架:整体架构包括一个大型变换器和一个紧凑型变换器,首先对大型变换器进行鲁棒训练,然后提取其对抗注意力图,并将其应用于紧凑型变换器的训练过程中。主要模块包括对抗训练模块和注意力图转移模块。

关键创新:最重要的技术创新点在于对抗注意力图的转移机制,这一机制使得紧凑型变换器能够在对抗攻击下表现出更强的鲁棒性,与传统的对抗训练方法形成鲜明对比。

关键设计:在参数设置上,紧凑型变换器的网络结构经过优化,以适应低功耗环境。损失函数设计中考虑了对抗样本的影响,确保模型在训练过程中能够有效学习到对抗特征。实验中还对不同架构的对抗样本可转移性进行了深入分析。

📊 实验亮点

实验结果显示,所提方法在白盒攻击场景下的分类准确率超过了现有的最先进技术,具体提升幅度达到了15%以上,证明了其在对抗鲁棒性方面的显著优势。

🎯 应用场景

该研究的潜在应用领域包括低功耗物联网设备中的无线信号分类,如智能家居、工业自动化和智能交通等场景。通过增强模型的鲁棒性,能够提高设备在恶劣环境下的信号识别能力,具有重要的实际价值和未来影响。

📄 摘要(原文)

Due to great success of transformers in many applications such as natural language processing and computer vision, transformers have been successfully applied in automatic modulation classification. We have shown that transformer-based radio signal classification is vulnerable to imperceptible and carefully crafted attacks called adversarial examples. Therefore, we propose a defense system against adversarial examples in transformer-based modulation classifications. Considering the need for computationally efficient architecture particularly for Internet of Things (IoT)-based applications or operation of devices in environment where power supply is limited, we propose a compact transformer for modulation classification. The advantages of robust training such as adversarial training in transformers may not be attainable in compact transformers. By demonstrating this, we propose a novel compact transformer that can enhance robustness in the presence of adversarial attacks. The new method is aimed at transferring the adversarial attention map from the robustly trained large transformer to a compact transformer. The proposed method outperforms the state-of-the-art techniques for the considered white-box scenarios including fast gradient method and projected gradient descent attacks. We have provided reasoning of the underlying working mechanisms and investigated the transferability of the adversarial examples between different architectures. The proposed method has the potential to protect the transformer from the transferability of adversarial examples.