SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification

📄 arXiv: 2603.12588v1 📥 PDF

作者: Furui Chen, Han Wang, Yuhan Sun, Jianing You, Yixuan Lv, Zhuang Zhou, Hong Tan, Shengyang Li

分类: cs.CV

发布日期: 2026-03-13

🔗 代码/项目: GITHUB


💡 一句话要点

SDF-Net:提出结构感知解耦特征学习网络,解决光电-SAR船舶重识别难题

🎯 匹配领域: 支柱七:动作重定向 (Motion Retargeting)

关键词: 光电-SAR 船舶重识别 跨模态学习 结构一致性 特征解耦

📋 核心要点

  1. 现有光电-SAR船舶重识别方法忽略了船舶几何结构的跨模态一致性,而纹理外观具有模态依赖性。
  2. SDF-Net通过结构一致性约束提取尺度不变的梯度能量统计量,解耦模态不变的身份特征和模态特定特征。
  3. 在HOSS-ReID数据集上,SDF-Net显著优于现有方法,证明了其有效性。

📝 摘要(中文)

本文提出了一种结构感知的解耦特征学习网络SDF-Net,用于解决光电和合成孔径雷达(SAR)图像之间的跨模态船舶重识别问题。该问题的主要挑战在于光电成像和相干主动雷达探测之间存在严重的辐射差异。SDF-Net基于ViT骨干网络,引入了结构一致性约束,从中间层提取尺度不变的梯度能量统计量,以增强表示对辐射变化的鲁棒性。在网络的末端,SDF-Net将学习到的表示解耦为模态不变的身份特征和模态特定的特征。这些解耦的线索通过无参数的加性残差融合进行整合,从而有效地增强了判别能力。在HOSS-ReID数据集上的大量实验表明,SDF-Net始终优于现有的最先进方法。代码和训练好的模型已公开。

🔬 方法详解

问题定义:光电-SAR船舶重识别任务旨在匹配不同模态(光电和SAR)下同一艘船的图像。现有方法主要依赖于统计分布对齐或语义匹配,但忽略了船舶作为刚性物体,其几何结构在不同模态下保持稳定的物理先验,而纹理外观则具有高度的模态依赖性。这种忽略导致模型难以有效区分不同船舶,尤其是在辐射差异较大的情况下。

核心思路:SDF-Net的核心思路是将几何结构一致性融入到光电-SAR船舶重识别中。通过提取跨模态保持一致的结构信息,并将其与模态特定的外观信息解耦,从而提高模型的判别能力和鲁棒性。这种解耦允许模型更好地学习到与船舶身份相关的本质特征,同时忽略模态差异带来的干扰。

技术框架:SDF-Net的整体架构基于ViT骨干网络。首先,输入光电和SAR图像经过ViT提取特征。然后,在ViT的中间层,引入结构一致性约束,提取尺度不变的梯度能量统计量。在网络的末端,使用解耦模块将学习到的表示分解为模态不变的身份特征和模态特定的特征。最后,通过加性残差融合将解耦的特征进行整合,用于最终的重识别任务。

关键创新:SDF-Net的关键创新在于:1) 提出了结构一致性约束,利用梯度能量统计量来捕捉跨模态的几何结构信息;2) 引入了特征解耦机制,将表示分解为模态不变的身份特征和模态特定的特征,从而更好地学习到船舶的本质特征。与现有方法相比,SDF-Net更加关注船舶的物理结构先验,并有效地利用了跨模态的几何一致性。

关键设计:结构一致性约束通过计算ViT中间层特征图的梯度能量统计量来实现。具体来说,首先计算特征图的梯度,然后计算梯度能量,最后对梯度能量进行统计,得到尺度不变的表示。解耦模块使用两个独立的线性层来实现,分别用于提取模态不变的身份特征和模态特定的特征。加性残差融合是一种无参数的融合方法,通过将解耦的特征直接相加来实现特征整合。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

SDF-Net在HOSS-ReID数据集上取得了显著的性能提升,超越了现有的最先进方法。具体来说,SDF-Net在Rank-1准确率上取得了明显的提升,证明了其在跨模态船舶重识别任务中的有效性。实验结果表明,结构一致性约束和特征解耦机制能够有效地提高模型的判别能力和鲁棒性。

🎯 应用场景

该研究成果可应用于智能交通、港口管理、海洋安全等领域。通过跨模态船舶重识别技术,可以实现对船舶的自动跟踪、监控和识别,提高港口运营效率,加强海洋环境监管,并为海上搜救提供技术支持。未来,该技术有望扩展到其他跨模态目标识别任务中。

📄 摘要(原文)

Cross-modal ship re-identification (ReID) between optical and synthetic aperture radar (SAR) imagery is fundamentally challenged by the severe radiometric discrepancy between passive optical imaging and coherent active radar sensing. While existing approaches primarily rely on statistical distribution alignment or semantic matching, they often overlook a critical physical prior: ships are rigid objects whose geometric structures remain stable across sensing modalities, whereas texture appearance is highly modality-dependent. In this work, we propose SDF-Net, a Structure-Aware Disentangled Feature Learning Network that systematically incorporates geometric consistency into optical--SAR ship ReID. Built upon a ViT backbone, SDF-Net introduces a structure consistency constraint that extracts scale-invariant gradient energy statistics from intermediate layers to robustly anchor representations against radiometric variations. At the terminal stage, SDF-Net disentangles the learned representations into modality-invariant identity features and modality-specific characteristics. These decoupled cues are then integrated through a parameter-free additive residual fusion, effectively enhancing discriminative power. Extensive experiments on the HOSS-ReID dataset demonstrate that SDF-Net consistently outperforms existing state-of-the-art methods. The code and trained models are publicly available at https://github.com/cfrfree/SDF-Net.