分布式随机网络蒸馏中的探索与反探索

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本文提出了一种改进的深度强化学习算法(DRND),通过随机网络扰动和伪计算来提高奖励分配的准确性和探索过程。该算法在在线周期探索场景和离线任务中表现出更好的性能。

🎯

关键要点

  • 提出了一种改进的深度强化学习算法(DRND)。
  • 算法通过随机网络扰动和伪计算提高奖励分配的准确性。
  • 该算法鼓励更广泛的探索,增强了探索过程。
  • 在在线周期探索场景和离线任务中表现出更好的性能。
➡️

继续阅读