Few-shot Class-Incremental Learning via Generative Co-Memory Regularization

📄 arXiv: 2601.07117v1 📥 PDF

作者: Kexin Bao, Yong Li, Dan Zeng, Shiming Ge

分类: cs.CV, cs.AI

发布日期: 2026-01-12

备注: Accepted by International Journal on Computer Vision (IJCV)


💡 一句话要点

提出生成式协同记忆正则化方法,解决少样本类增量学习难题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 少样本学习 增量学习 灾难性遗忘 生成模型 记忆正则化

📋 核心要点

  1. 少样本类增量学习面临灾难性遗忘和过拟合的双重挑战,现有方法难以兼顾。
  2. 提出生成式协同记忆正则化,利用生成模型学习通用表征,并用协同记忆缓解遗忘。
  3. 实验结果表明,该方法在多个基准数据集上超越了现有最佳方法,显著提升了性能。

📝 摘要(中文)

本文提出一种生成式协同记忆正则化方法,旨在解决少样本类增量学习(FSCIL)问题。FSCIL要求模型在少量新数据的监督下,具备强大的表征和适应能力,以避免对旧类别的灾难性遗忘和对新类别的过拟合。该方法利用生成域自适应微调,在少量基础类别样本上微调预训练的生成式编码器,同时结合用于特征重建的掩码自编码器(MAE)解码器和用于特征分类的全连接分类器,使模型能够有效地捕获通用且适应性强的表征。利用微调后的编码器和学习到的分类器,构建两个类别的记忆:用于存储每个类别平均特征的表征记忆和用于存储分类器权重的权重记忆。然后,执行记忆正则化的增量学习,通过同时优化特征分类和协同记忆正则化,在每个增量会话中动态地训练少量样本类别的分类器。记忆以类增量方式更新,并协同正则化增量学习。通过这种方式,学习到的模型提高了识别精度,同时减轻了对旧类别的灾难性遗忘和对新类别的过拟合。在流行的基准数据集上的大量实验清楚地表明,该方法优于现有技术。

🔬 方法详解

问题定义:少样本类增量学习(FSCIL)旨在解决模型在仅有少量新类别样本的情况下,如何持续学习新知识,同时避免遗忘旧知识的问题。现有方法通常难以在有限数据下学习到泛化性强的特征表示,容易对新类别过拟合,并且在学习新类别时会显著降低旧类别的识别精度,即发生灾难性遗忘。

核心思路:本文的核心思路是利用生成模型学习更具泛化性的特征表示,并引入协同记忆机制来保留旧类别的知识,从而缓解灾难性遗忘。具体来说,首先利用生成式域自适应微调,使模型能够有效地捕获通用且适应性强的表征。然后,构建表征记忆和权重记忆,分别存储每个类别的平均特征和分类器权重,用于正则化增量学习过程。

技术框架:整体框架包含两个主要阶段:基础学习阶段和增量学习阶段。在基础学习阶段,使用生成式域自适应微调预训练的生成式编码器,并学习初始分类器。然后,构建表征记忆和权重记忆。在增量学习阶段,对于每个新类别,使用少量样本训练分类器,并利用协同记忆正则化来防止遗忘。记忆会随着新类别的加入而动态更新。

关键创新:最重要的技术创新点在于生成式协同记忆正则化。与传统的基于距离或原型的方法不同,该方法利用生成模型学习更鲁棒的特征表示,并使用协同记忆来显式地保留旧知识。这种方法能够更好地平衡新知识的学习和旧知识的保留,从而有效地缓解灾难性遗忘和过拟合。

关键设计:在基础学习阶段,使用了掩码自编码器(MAE)解码器进行特征重建,以提高特征表示的质量。损失函数包括特征分类损失和特征重建损失。在增量学习阶段,使用了协同记忆正则化损失,该损失鼓励新学习的特征和权重与记忆中的特征和权重保持一致。记忆的更新采用指数移动平均(EMA)策略,以平滑记忆的更新过程。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该方法在多个少样本类增量学习基准数据集上取得了显著的性能提升。例如,在 CIFAR-100 数据集上,该方法相比现有最佳方法提升了超过 5% 的准确率。实验结果表明,该方法能够有效地缓解灾难性遗忘和过拟合,并学习到更具泛化性的特征表示。

🎯 应用场景

该研究成果可应用于机器人、自动驾驶、智能监控等领域,这些领域通常需要在少量样本下快速学习新类别,并保持对已有知识的记忆。例如,机器人可以在少量示教下学习新的操作技能,同时不忘记已掌握的技能。自动驾驶系统可以在少量新场景数据下学习新的交通规则,同时不降低对已有场景的识别精度。该研究具有重要的实际应用价值和广阔的应用前景。

📄 摘要(原文)

Few-shot class-incremental learning (FSCIL) aims to incrementally learn models from a small amount of novel data, which requires strong representation and adaptation ability of models learned under few-example supervision to avoid catastrophic forgetting on old classes and overfitting to novel classes. This work proposes a generative co-memory regularization approach to facilitate FSCIL. In the approach, the base learning leverages generative domain adaptation finetuning to finetune a pretrained generative encoder on a few examples of base classes by jointly incorporating a masked autoencoder (MAE) decoder for feature reconstruction and a fully-connected classifier for feature classification, which enables the model to efficiently capture general and adaptable representations. Using the finetuned encoder and learned classifier, we construct two class-wise memories: representation memory for storing the mean features for each class, and weight memory for storing the classifier weights. After that, the memory-regularized incremental learning is performed to train the classifier dynamically on the examples of few-shot classes in each incremental session by simultaneously optimizing feature classification and co-memory regularization. The memories are updated in a class-incremental manner and they collaboratively regularize the incremental learning. In this way, the learned models improve recognition accuracy, while mitigating catastrophic forgetting over old classes and overfitting to novel classes. Extensive experiments on popular benchmarks clearly demonstrate that our approach outperforms the state-of-the-arts.