不平衡分类和强化学习探索的范围损失

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

本文介绍了强化学习问题和监督分类问题之间的等价性,提出了一种新的损失函数——Scope Loss。作者发现探索和利用权衡问题等同于数据集不平衡问题,并发现了它们在解决方法上的相似之处。Scope Loss 可以调整梯度,防止过度利用和数据集不平衡导致的性能损失,而无需任何调整。作者在基准强化学习任务和一个倾斜的分类数据集上测试了 Scope Loss,并证明其优于其他损失函数。

原文中文,约400字,阅读约需1分钟。
阅读原文