Explainability-Driven Leaf Disease Classification Using Adversarial Training and Knowledge Distillation
作者: Sebastian-Vasile Echim, Iulian-Marius Tăiatu, Dumitru-Clementin Cercel, Florin Pop
分类: cs.CV, cs.LG
发布日期: 2023-12-30 (更新: 2024-01-23)
备注: 10 pages, 8 figures, Accepted by ICAART 2024
💡 一句话要点
提出结合对抗训练、可解释性和知识蒸馏的叶片病害分类方法
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 叶片病害分类 对抗训练 模型可解释性 知识蒸馏 模型压缩 鲁棒性 智能农业
📋 核心要点
- 现有叶片病害分类模型易受对抗攻击影响,鲁棒性不足,且模型决策过程缺乏透明度。
- 采用对抗训练提升模型鲁棒性,利用可解释性技术洞察模型决策,并使用知识蒸馏压缩模型。
- 实验表明,对抗训练可显著提升模型鲁棒性,知识蒸馏可在保证性能前提下大幅提升计算效率。
📝 摘要(中文)
本研究关注植物叶片病害分类,并探索了三个关键方面:对抗训练、模型可解释性和模型压缩。通过对抗训练增强模型对对抗攻击的鲁棒性,确保即使在存在威胁的情况下也能进行准确分类。利用可解释性技术,深入了解模型的决策过程,提高信任度和透明度。此外,探索模型压缩技术以优化计算效率,同时保持分类性能。实验表明,在基准数据集上,鲁棒性可能会以牺牲分类精度为代价,常规测试的性能降低3%-20%,而对抗攻击测试的性能提高50%-70%。同时证明,通过知识蒸馏,学生模型在性能略有下降的情况下,计算效率可以提高15-25倍。
🔬 方法详解
问题定义:论文旨在解决植物叶片病害分类模型在实际应用中面临的鲁棒性和效率问题。现有模型容易受到对抗攻击的干扰,导致分类精度下降。此外,模型通常是黑盒,缺乏可解释性,难以理解其决策依据。最后,复杂模型计算量大,难以部署在资源受限的设备上。
核心思路:论文的核心思路是通过结合对抗训练、可解释性技术和知识蒸馏,构建一个鲁棒、可解释且高效的叶片病害分类模型。对抗训练增强模型抵抗对抗攻击的能力,可解释性技术揭示模型决策过程,知识蒸馏将复杂模型的知识迁移到轻量级模型,提高计算效率。
技术框架:整体框架包含三个主要阶段:1) 对抗训练阶段,使用对抗样本训练模型,提高其鲁棒性;2) 可解释性分析阶段,利用如Grad-CAM等技术可视化模型关注的区域,理解其决策依据;3) 知识蒸馏阶段,将训练好的复杂模型(教师模型)的知识迁移到轻量级模型(学生模型),实现模型压缩。
关键创新:论文的关键创新在于将对抗训练、可解释性和知识蒸馏三种技术有机结合,共同提升叶片病害分类模型的性能。不同于以往研究仅关注单一方面的优化,该方法综合考虑了模型的鲁棒性、可解释性和效率,更贴近实际应用需求。
关键设计:对抗训练采用 Projected Gradient Descent (PGD) 等方法生成对抗样本,并将其加入训练集。可解释性分析使用 Grad-CAM 等技术生成热力图,可视化模型关注的叶片区域。知识蒸馏采用基于logits的蒸馏损失函数,鼓励学生模型学习教师模型的输出分布。具体的网络结构和超参数设置在实验部分进行了详细描述,并针对不同的数据集进行了调整。
📊 实验亮点
实验结果表明,对抗训练可以显著提高模型对对抗攻击的鲁棒性,在对抗攻击测试中性能提升50%-70%。同时,知识蒸馏可以在性能略有下降(小于5%)的情况下,将模型计算效率提高15-25倍。这些结果验证了该方法在提升模型鲁棒性和效率方面的有效性。
🎯 应用场景
该研究成果可应用于智能农业领域,例如病虫害自动监测与预警系统。通过部署鲁棒、可解释且高效的叶片病害分类模型,农民可以及时发现并处理病害,减少损失,提高产量。此外,该方法也可推广到其他图像分类任务,例如医学图像分析、遥感图像解译等。
📄 摘要(原文)
This work focuses on plant leaf disease classification and explores three crucial aspects: adversarial training, model explainability, and model compression. The models' robustness against adversarial attacks is enhanced through adversarial training, ensuring accurate classification even in the presence of threats. Leveraging explainability techniques, we gain insights into the model's decision-making process, improving trust and transparency. Additionally, we explore model compression techniques to optimize computational efficiency while maintaining classification performance. Through our experiments, we determine that on a benchmark dataset, the robustness can be the price of the classification accuracy with performance reductions of 3%-20% for regular tests and gains of 50%-70% for adversarial attack tests. We also demonstrate that a student model can be 15-25 times more computationally efficient for a slight performance reduction, distilling the knowledge of more complex models.