随机循环向量的多标签学习
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
该论文介绍了XR-Transformer,一种用于加速transformer模型微调的新递归方法。在Amazon-3M数据集上,该方法实现了较快的训练速度,并将Precision@1从51%提高到54%,成为目前基于transformer的XMC模型中的最佳结果之一。
🎯
关键要点
- 提出了一种名为 XR-Transformer 的新递归方法
- 该方法用于加速 transformer 模型在大标签空间上的微调过程
- 在 Amazon-3M 数据集上实现了较快的训练速度
- Precision@1 从 51% 提高到 54%
- 成为基于 transformer 的 XMC 模型中的最佳结果之一
➡️