停止回归:通过分类训练值函数用于可扩展深度强化学习

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本研究发现交叉熵损失的分类方法优于均方误差损失的回归方法,同时提出了序数熵损失方法来提高回归任务性能。实验结果显示增加熵对回归任务有重要性和好处。

🎯

关键要点

  • 本研究探讨计算机视觉中的回归问题的分类方法。
  • 交叉熵损失的分类方法优于均方误差损失的回归方法。
  • 提出了一种序数熵损失方法以提高回归任务的性能。
  • 序数熵损失方法鼓励高熵特征空间并维护序数关系。
  • 实验结果表明增加熵对回归任务的重要性和好处。
➡️

继续阅读