NextLevelBERT:探索使用高级表示进行长文档的遮蔽语言建模
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文介绍了NarrowBERT,一种修改的transformer编码器,通过仅在屏蔽令牌上操作来增加掩码语言模型预训练的吞吐量。NarrowBERT在推理时间的吞吐量提高了3.5倍,性能降低最小,并且在多个任务上与标准BERT相当。
🎯
关键要点
- 本文介绍了一种修改的transformer编码器NarrowBERT。
- NarrowBERT通过仅在屏蔽令牌上操作来增加掩码语言模型预训练的吞吐量。
- NarrowBERT在推理时间的吞吐量提高了3.5倍,性能降低最小。
- NarrowBERT在多个任务上表现与标准BERT相当,包括IMDB、亚马逊评论分类和CoNLL NER任务。
🏷️
标签
➡️