AnytimeCL:难度加大,支持任意持续学习场景的新方案 | ECCV'24 - 晓飞的算法工程笔记

💡 原文中文,约3100字,阅读约需8分钟。
📝

内容提要

论文提出了一种名为AnytimeCL的开放词汇图像分类持续学习方法,采用动态加权机制结合原始模型与微调模型的预测,支持在线训练和类别平衡。该方法通过特征压缩降低存储需求,提高训练效率,同时保持准确性。

🎯

关键要点

  • 论文提出了一种名为AnytimeCL的开放词汇图像分类持续学习方法。
  • 该方法采用动态加权机制结合原始模型与微调模型的预测。
  • 支持在线训练和类别平衡,每个批次由新训练样本和存储样本组成。
  • 损失函数修改以支持“以上皆非”的预测,增强开放词汇训练的稳定性。
  • 中间层特征压缩减少存储需求,提高训练速度,准确性影响不大。
  • AnytimeCL旨在突破批量训练和严格模型的限制,支持随时更新和改进。
  • 调优模型与原始模型结合,使用相同编码器和可训练解码器。
  • 通过在线类别加权(OCW)对模型预测进行加权,提高标签准确性。
  • 使用指数滑动平均(EMA)更新标签的准确性估计。
  • 存储特征向量以提高隐私性和存储效率,避免存储图像带来的隐私问题。
  • 逐图像的注意力加权PCA用于特征压缩,减少存储空间。
  • 通过存储PCA向量及其系数,显著降低存储需求,同时保持预测准确性。
➡️

继续阅读