随机循环向量的多标签学习

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

该论文介绍了XR-Transformer,一种用于加速transformer模型微调的新递归方法。在Amazon-3M数据集上,该方法实现了较快的训练速度,并将Precision@1从51%提高到54%,成为目前基于transformer的XMC模型中的最佳结果之一。

🎯

关键要点

  • 提出了一种名为 XR-Transformer 的新递归方法
  • 该方法用于加速 transformer 模型在大标签空间上的微调过程
  • 在 Amazon-3M 数据集上实现了较快的训练速度
  • Precision@1 从 51% 提高到 54%
  • 成为基于 transformer 的 XMC 模型中的最佳结果之一
➡️

继续阅读