AnytimeCL:难度加大,支持任意持续学习场景的新方案 | ECCV'24 - 晓飞的算法工程笔记
💡
原文中文,约3100字,阅读约需8分钟。
📝
内容提要
论文提出了一种名为AnytimeCL的开放词汇图像分类持续学习方法,采用动态加权机制结合原始模型与微调模型的预测,支持在线训练和类别平衡。该方法通过特征压缩降低存储需求,提高训练效率,同时保持准确性。
🎯
关键要点
- 论文提出了一种名为AnytimeCL的开放词汇图像分类持续学习方法。
- 该方法采用动态加权机制结合原始模型与微调模型的预测。
- 支持在线训练和类别平衡,每个批次由新训练样本和存储样本组成。
- 损失函数修改以支持“以上皆非”的预测,增强开放词汇训练的稳定性。
- 中间层特征压缩减少存储需求,提高训练速度,准确性影响不大。
- AnytimeCL旨在突破批量训练和严格模型的限制,支持随时更新和改进。
- 调优模型与原始模型结合,使用相同编码器和可训练解码器。
- 通过在线类别加权(OCW)对模型预测进行加权,提高标签准确性。
- 使用指数滑动平均(EMA)更新标签的准确性估计。
- 存储特征向量以提高隐私性和存储效率,避免存储图像带来的隐私问题。
- 逐图像的注意力加权PCA用于特征压缩,减少存储空间。
- 通过存储PCA向量及其系数,显著降低存储需求,同时保持预测准确性。
➡️