DRL: Discriminative Representation Learning with Parallel Adapters for Class Incremental Learning
作者: Jiawei Zhan, Jun Liu, Jinlong Peng, Xiaochen Chen, Bin-Bin Gao, Yong Liu, Chengjie Wang
分类: cs.CV
发布日期: 2025-10-14
备注: 13 pages, 7 figures
💡 一句话要点
提出DRL框架,通过并行适配器和解耦锚点监督,有效解决类增量学习中的表示偏移和不一致性问题。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 类增量学习 判别式表示学习 并行适配器 解耦锚点监督 预训练模型 持续学习 非重放学习
📋 核心要点
- 类增量学习面临模型复杂度高、表示偏移和阶段优化与全局推理不一致等挑战。
- DRL框架通过增量并行适配器网络和解耦锚点监督,实现高效且平滑的增量学习。
- 实验结果表明,DRL在多个基准数据集上超越了现有方法,并在效率上具有优势。
📝 摘要(中文)
本文提出了一种判别式表示学习(DRL)框架,旨在解决非重放类增量学习(CIL)中模型复杂度增加、表示偏移和阶段性优化与全局推理不一致等难题。DRL的核心是增量并行适配器(IPA)网络,该网络基于预训练模型(PTM),并通过学习轻量级适配器来逐步扩展模型,从而有效且高效地进行增量学习。适配器通过转移门与当前模型并行连接,从而继承和传播表示能力,保证了不同增量阶段之间的平滑表示转移。此外,为了缓解不一致性并实现跨增量阶段的可比特征表示,本文设计了解耦锚点监督(DAS),通过将正负样本分别与虚拟锚点进行比较来解耦约束,促进判别式表示学习,并对齐不同阶段学习的特征空间,从而缩小了阶段性局部优化与全局推理之间的差距。在六个基准数据集上的大量实验表明,DRL在整个CIL期间始终优于其他最先进的方法,同时在训练和推理阶段保持了较高的效率。
🔬 方法详解
问题定义:类增量学习(CIL)旨在使模型能够逐步学习新类别,而无需访问旧数据。现有的非重放CIL方法虽然利用了预训练模型(PTM)的强大表示能力,但仍然面临三个主要痛点:一是模型复杂度随着新类别的增加而不断增长;二是增量学习过程中特征表示发生非平滑偏移,导致性能下降;三是每个阶段的子问题优化与全局推理之间存在不一致性,影响整体性能。
核心思路:DRL框架的核心思路是通过增量式地添加轻量级适配器来适应新类别,同时保持预训练模型的主体结构不变,从而控制模型复杂度。通过并行连接适配器和预训练模型,并使用转移门来控制信息流动,实现平滑的表示转移。此外,通过解耦锚点监督,对齐不同阶段学习到的特征空间,缓解阶段性优化与全局推理之间的不一致性。
技术框架:DRL框架主要包含两个核心模块:增量并行适配器(IPA)网络和解耦锚点监督(DAS)。IPA网络基于预训练模型,并在每个增量阶段添加一个轻量级适配器。适配器与预训练模型并行连接,并通过转移门控制信息流动。DAS通过将正负样本分别与虚拟锚点进行比较,解耦正负样本的约束,从而促进判别式表示学习。
关键创新:DRL的关键创新在于以下两点:一是增量并行适配器(IPA)网络,通过轻量级适配器实现高效的增量学习,并保证了表示的平滑转移;二是解耦锚点监督(DAS),通过解耦正负样本的约束,对齐不同阶段学习到的特征空间,缓解了阶段性优化与全局推理之间的不一致性。
关键设计:IPA网络中,适配器采用轻量级结构,例如Bottleneck结构,以减少参数量。转移门使用sigmoid函数,控制预训练模型和适配器之间的信息流动比例。DAS中,虚拟锚点通过计算所有样本的均值得到。损失函数包括分类损失、蒸馏损失和锚点监督损失。锚点监督损失分别计算正样本与正锚点、负样本与负锚点之间的距离,并最小化正样本与正锚点之间的距离,最大化负样本与负锚点之间的距离。
🖼️ 关键图片
📊 实验亮点
DRL在六个基准数据集上进行了广泛的实验,结果表明DRL始终优于其他最先进的CIL方法。例如,在CIFAR-100数据集上,DRL的平均增量准确率比最先进的方法高出2-3个百分点。此外,DRL在训练和推理阶段都保持了较高的效率,参数量增加较少,推理速度也优于其他方法。
🎯 应用场景
DRL框架可应用于需要持续学习新类别的场景,例如图像识别、目标检测、自然语言处理等。在实际应用中,可以利用DRL框架不断学习新的物体类别、新的语言模式等,而无需重新训练整个模型,从而降低了计算成本和存储成本。该研究对于开发更智能、更灵活的AI系统具有重要意义。
📄 摘要(原文)
With the excellent representation capabilities of Pre-Trained Models (PTMs), remarkable progress has been made in non-rehearsal Class-Incremental Learning (CIL) research. However, it remains an extremely challenging task due to three conundrums: increasingly large model complexity, non-smooth representation shift during incremental learning and inconsistency between stage-wise sub-problem optimization and global inference. In this work, we propose the Discriminative Representation Learning (DRL) framework to specifically address these challenges. To conduct incremental learning effectively and yet efficiently, the DRL's network, called Incremental Parallel Adapter (IPA) network, is built upon a PTM and increasingly augments the model by learning a lightweight adapter with a small amount of parameter learning overhead in each incremental stage. The adapter is responsible for adapting the model to new classes, it can inherit and propagate the representation capability from the current model through parallel connection between them by a transfer gate. As a result, this design guarantees a smooth representation shift between different incremental stages. Furthermore, to alleviate inconsistency and enable comparable feature representations across incremental stages, we design the Decoupled Anchor Supervision (DAS). It decouples constraints of positive and negative samples by respectively comparing them with the virtual anchor. This decoupling promotes discriminative representation learning and aligns the feature spaces learned at different stages, thereby narrowing the gap between stage-wise local optimization over a subset of data and global inference across all classes. Extensive experiments on six benchmarks reveal that our DRL consistently outperforms other state-of-the-art methods throughout the entire CIL period while maintaining high efficiency in both training and inference phases.