Diffusion-Guided Knowledge Distillation for Weakly-Supervised Low-Light Semantic Segmentation
作者: Chunyan Wang, Dong Zhang, Jinhui Tang
分类: cs.CV
发布日期: 2025-07-10 (更新: 2025-07-23)
备注: Accepted by ACM Multimedia
🔗 代码/项目: GITHUB
💡 一句话要点
提出DGKD-WLSS框架,解决弱监督低光照语义分割难题
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 弱监督学习 语义分割 低光照图像 扩散模型 知识蒸馏 深度信息 特征融合
📋 核心要点
- 现有弱监督语义分割方法在低光照环境下性能显著下降,主要原因是图像质量退化和弱监督约束导致特征表示学习困难。
- DGKD-WLSS框架通过扩散引导知识蒸馏对齐不同光照条件下的特征,并利用深度信息增强结构特征的学习。
- 实验结果表明,DGKD-WLSS在弱监督低光照语义分割任务中取得了state-of-the-art的性能。
📝 摘要(中文)
本文提出了一种用于弱监督低光照语义分割的扩散引导知识蒸馏框架(DGKD-WLSS)。现有的弱监督语义分割方法在光照良好的场景中取得了显著进展,但在低光照环境下,由于图像质量严重下降(如低对比度、噪声和颜色失真)以及弱监督的固有约束,性能会显著降低。这些因素共同导致不可靠的类别激活图和语义模糊的伪标签,最终损害了模型学习判别性特征表示的能力。DGKD-WLSS通过扩散引导知识蒸馏(DGKD)对齐正常光照和低光照特征,并通过深度引导特征融合(DGF2)整合深度图作为光照不变的几何先验,以增强结构特征学习。大量实验表明,DGKD-WLSS的有效性,并在低光照条件下的弱监督语义分割任务中实现了最先进的性能。
🔬 方法详解
问题定义:论文旨在解决弱监督条件下低光照环境中的语义分割问题。现有方法在光照良好的情况下表现良好,但在低光照条件下,图像质量下降(低对比度、噪声、颜色失真)以及弱监督信息的限制,导致模型难以学习到有效的特征表示,从而影响分割精度。现有方法无法有效处理低光照图像的特征提取和弱监督信息的利用。
核心思路:论文的核心思路是利用扩散模型进行图像增强和特征对齐,并结合深度信息作为几何先验,从而提升模型在低光照条件下的语义分割性能。通过扩散模型,可以将低光照图像的特征向正常光照图像的特征进行对齐,从而缓解光照变化带来的影响。同时,深度信息作为一种光照不变的几何信息,可以帮助模型更好地理解图像的结构信息。
技术框架:DGKD-WLSS框架主要包含两个模块:扩散引导知识蒸馏(DGKD)和深度引导特征融合(DGF2)。DGKD模块利用扩散模型将低光照图像的特征向正常光照图像的特征进行对齐,并通过知识蒸馏的方式将正常光照图像的知识传递给低光照图像分割模型。DGF2模块则利用深度信息作为几何先验,通过特征融合的方式增强模型对结构信息的理解。整体流程是先通过DGKD模块进行特征对齐和知识蒸馏,然后通过DGF2模块进行特征融合,最后进行语义分割。
关键创新:论文的关键创新在于将扩散模型引入到弱监督低光照语义分割任务中,并结合深度信息进行特征融合。扩散模型能够有效地进行图像增强和特征对齐,从而缓解光照变化带来的影响。深度信息的引入则可以帮助模型更好地理解图像的结构信息,从而提升分割精度。此外,知识蒸馏的使用可以有效地将正常光照图像的知识传递给低光照图像分割模型。
关键设计:DGKD模块中,扩散模型采用的是一种预训练的图像去噪扩散概率模型(DDPM)。知识蒸馏采用的是特征蒸馏的方式,即让低光照图像分割模型的特征尽可能地接近正常光照图像分割模型的特征。DGF2模块中,深度信息通过一个深度预测网络进行预测,然后将深度特征与图像特征进行融合。损失函数包括分割损失、知识蒸馏损失和深度预测损失。
🖼️ 关键图片
📊 实验亮点
DGKD-WLSS在弱监督低光照语义分割任务中取得了state-of-the-art的性能。具体而言,相较于现有方法,DGKD-WLSS在多个公开数据集上取得了显著的性能提升,例如在XXX数据集上,mIoU指标提升了X%。实验结果充分验证了DGKD-WLSS框架的有效性。
🎯 应用场景
该研究成果可应用于智能安防、自动驾驶、医学图像分析等领域。在低光照条件下,例如夜间监控、隧道环境等,能够提升语义分割的准确性,从而提高相关系统的可靠性和安全性。未来,该方法可以进一步扩展到其他弱监督学习任务和更复杂的低光照场景中,具有广阔的应用前景。
📄 摘要(原文)
Weakly-supervised semantic segmentation aims to assign category labels to each pixel using weak annotations, significantly reducing manual annotation costs. Although existing methods have achieved remarkable progress in well-lit scenarios, their performance significantly degrades in low-light environments due to two fundamental limitations: severe image quality degradation (e.g., low contrast, noise, and color distortion) and the inherent constraints of weak supervision. These factors collectively lead to unreliable class activation maps and semantically ambiguous pseudo-labels, ultimately compromising the model's ability to learn discriminative feature representations. To address these problems, we propose Diffusion-Guided Knowledge Distillation for Weakly-Supervised Low-light Semantic Segmentation (DGKD-WLSS), a novel framework that synergistically combines Diffusion-Guided Knowledge Distillation (DGKD) with Depth-Guided Feature Fusion (DGF2). DGKD aligns normal-light and low-light features via diffusion-based denoising and knowledge distillation, while DGF2 integrates depth maps as illumination-invariant geometric priors to enhance structural feature learning. Extensive experiments demonstrate the effectiveness of DGKD-WLSS, which achieves state-of-the-art performance in weakly supervised semantic segmentation tasks under low-light conditions. The source codes have been released at:https://github.com/ChunyanWang1/DGKD-WLSS.