TSCL:Multi-party loss Balancing scheme for deep learning Image steganography based on Curriculum learning

📄 arXiv: 2504.18348v1 📥 PDF

作者: Fengchun Liu. Tong Zhang, Chunying Zhang

分类: cs.CV, cs.AI, cs.CR

发布日期: 2025-04-25


💡 一句话要点

提出TSCL:一种基于课程学习的深度学习图像隐写多方损失平衡方案

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 图像隐写 深度学习 课程学习 损失平衡 多方对抗训练

📋 核心要点

  1. 现有深度学习图像隐写方法采用固定损失权重,忽略了任务重要性和训练过程的影响。
  2. TSCL通过两阶段课程学习,先验控制损失权重,再动态调整学习速度,平衡多任务学习。
  3. 实验表明,TSCL在隐写质量、解码精度和安全性方面均优于现有方法,提升了性能。

📝 摘要(中文)

本文针对基于深度学习的图像隐写框架,为了保证信息嵌入的不可见性和可恢复性,损失函数通常包含嵌入损失、恢复损失和隐写分析损失等多种损失。以往的研究工作通常选择固定的损失权重进行训练优化,这种设置与隐写任务本身的重要性以及训练过程无关。本文提出了一种两阶段课程学习损失调度器(TSCL),用于平衡深度学习图像隐写算法中的多项损失。TSCL包括两个阶段:先验课程控制和损失动态控制。第一阶段首先通过控制多方对抗训练中的损失权重,使模型专注于学习原始图像的信息嵌入;其次,使模型将其学习重点转移到提高解码精度;最后,使模型学习生成能够抵抗隐写分析的隐写图像。在第二阶段,通过计算迭代前后轮次的损失下降来评估每个训练任务的学习速度,从而平衡每个任务的学习。在ALASKA2、VOC2012和ImageNet三个大型公共数据集上的实验结果表明,所提出的TSCL策略提高了隐写质量、解码精度和安全性。

🔬 方法详解

问题定义:深度学习图像隐写术旨在将秘密信息嵌入到图像中,同时保证图像的视觉质量和安全性,即抵抗隐写分析。现有的方法通常采用固定的损失权重来平衡嵌入损失、恢复损失和隐写分析损失,这种方法无法根据训练的实际情况动态调整,导致模型训练效率低下,性能受限。

核心思路:TSCL的核心思路是利用课程学习的思想,分阶段地调整不同损失的权重,引导模型逐步学习。首先,让模型专注于信息嵌入,然后提高解码精度,最后增强抗隐写分析能力。此外,通过动态调整损失权重,平衡不同任务的学习速度,避免出现某些任务学习过快而另一些任务学习不足的情况。

技术框架:TSCL包含两个主要阶段:先验课程控制和损失动态控制。在先验课程控制阶段,预先设定损失权重,引导模型按照信息嵌入、解码精度、抗隐写分析的顺序进行学习。在损失动态控制阶段,根据每个任务的损失下降情况,动态调整损失权重,平衡不同任务的学习速度。整体框架是一个多方对抗训练的结构,包含嵌入网络、恢复网络和隐写分析网络。

关键创新:TSCL的关键创新在于将课程学习的思想引入到深度学习图像隐写术的损失平衡中,提出了一种两阶段的损失调度器。与传统的固定损失权重方法相比,TSCL能够根据训练的实际情况动态调整损失权重,从而提高模型训练效率和性能。

关键设计:先验课程控制阶段,损失权重按照预设的比例进行调整,例如,在第一阶段,嵌入损失的权重较高,而在第三阶段,抗隐写分析损失的权重较高。损失动态控制阶段,通过计算迭代前后轮次的损失下降来评估每个任务的学习速度,并根据学习速度调整损失权重。具体的损失函数包括嵌入损失(例如,均方误差)、恢复损失(例如,交叉熵损失)和隐写分析损失(例如,对抗损失)。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,在ALASKA2、VOC2012和ImageNet三个大型公共数据集上,TSCL策略在隐写质量、解码精度和安全性方面均优于现有方法。例如,在ALASKA2数据集上,TSCL的隐写图像的峰值信噪比(PSNR)比基线方法提高了约1dB,解码精度提高了约2%,抗隐写分析能力也有显著提升。

🎯 应用场景

该研究成果可应用于信息安全领域,例如安全通信、数字水印和版权保护。通过将秘密信息嵌入到图像中,可以实现隐蔽的信息传输,防止信息被窃取或篡改。此外,该技术还可以用于数字产品的版权保护,防止盗版行为。未来,该技术有望在军事通信、商业机密保护等领域发挥重要作用。

📄 摘要(原文)

For deep learning-based image steganography frameworks, in order to ensure the invisibility and recoverability of the information embedding, the loss function usually contains several losses such as embedding loss, recovery loss and steganalysis loss. In previous research works, fixed loss weights are usually chosen for training optimization, and this setting is not linked to the importance of the steganography task itself and the training process. In this paper, we propose a Two-stage Curriculum Learning loss scheduler (TSCL) for balancing multinomial losses in deep learning image steganography algorithms. TSCL consists of two phases: a priori curriculum control and loss dynamics control. The first phase firstly focuses the model on learning the information embedding of the original image by controlling the loss weights in the multi-party adversarial training; secondly, it makes the model shift its learning focus to improving the decoding accuracy; and finally, it makes the model learn to generate a steganographic image that is resistant to steganalysis. In the second stage, the learning speed of each training task is evaluated by calculating the loss drop of the before and after iteration rounds to balance the learning of each task. Experimental results on three large public datasets, ALASKA2, VOC2012 and ImageNet, show that the proposed TSCL strategy improves the quality of steganography, decoding accuracy and security.