SpacTor-T5: 使用跨度破坏和替换标记检测预训练 T5 模型
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文研究了无监督原始数据改善自然语言模型预训练的方法,提出了三种替代BERT的预训练目标,并介绍了自监督预训练任务与下游应用结构对齐的方法,展示了在多个任务上的性能提升。
🎯
关键要点
-
研究无监督原始数据改善自然语言模型预训练的方法。
-
提出三种替代BERT的预训练目标:随机标记替换(RTS)、基于聚类的随机标记替换(C-RTS)和交换语言建模(SLM)。
-
介绍与下游应用结构对齐的自监督预训练任务,减少对标记数据的需求。
-
在事实验证、答案句选择和摘要等任务上展示显著性能提升。
➡️