NextLevelBERT:探索使用高级表示进行长文档的遮蔽语言建模

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文介绍了NarrowBERT,一种修改的transformer编码器,通过仅在屏蔽令牌上操作来增加掩码语言模型预训练的吞吐量。NarrowBERT在推理时间的吞吐量提高了3.5倍,性能降低最小,并且在多个任务上与标准BERT相当。

🎯

关键要点

  • 本文介绍了一种修改的transformer编码器NarrowBERT。
  • NarrowBERT通过仅在屏蔽令牌上操作来增加掩码语言模型预训练的吞吐量。
  • NarrowBERT在推理时间的吞吐量提高了3.5倍,性能降低最小。
  • NarrowBERT在多个任务上表现与标准BERT相当,包括IMDB、亚马逊评论分类和CoNLL NER任务。
➡️

继续阅读