本研究提出了TransformerRanker,一个轻量级库,通过高效排名评估语言模型的适应性,避免了代价高昂的微调过程。实验结果表明,该方法在模型排名上达到了最先进的水平,具有显著的应用价值。
本文介绍了一种名为Mask-tuning的训练方法,通过将掩码语言建模(MLM)训练目标整合到微调过程中,提高了预训练语言模型(PLMs)的泛化能力。研究结果表明,Mask-tuning超越了当前最先进的技术,并增强了PLMs在离群数据集上的泛化能力,同时提高了它们在分布数据集上的性能。
该论文介绍了一种名为XR-Transformer的新递归方法,用于加速transformer模型在大标签空间上的微调过程。该方法在公共Amazon-3M数据集上取得了较快的训练速度,并将Precision@1从51%提高到54%,成为目前基于transformer的XMC模型中的最新最佳结果之一。
完成下面两步后,将自动完成登录并继续当前操作。