无先验平衡重放:基于不确定性引导的长尾持续学习的水库抽样
原文中文,约200字,阅读约需1分钟。发表于: 。本研究解决长尾持续学习(LTCL)中灾难性遗忘的问题,现有方法通常依赖于标签分布,而获取此类先验信息在实际中往往不可行。我们提出了一种新颖的无先验平衡重放(PBR)框架,通过不确定性引导的水库抽样策略优先重访少数类数据,显著减少遗忘,并在多个长尾基准测试中展示出优于现有方法的表现。
本文研究了利用掩码softmax方法解决连续学习中的遗忘与保留困难,并提出了一种保持置信度分布的方法。该方法在整体性能上优于最新方法,为基于回放的连续学习提供了坚实基础。