预训练的结构化生成变换器:规模化的无监督句法语言模型

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文介绍了使用大规模预训练结构转换器的句法语言模型(SLM)来弥补以前的限制,并证明了Generative Pretrained Structured Transformers(GPST)在多个任务中具有优越性。

🎯

关键要点

  • 使用大规模预训练结构转换器的句法语言模型(SLM)弥补了以前的限制。

  • SLM 通过高并行度的无监督训练在原始文本上进行训练。

  • 介绍了一种表示替代方法,以在硬 EM 方式下联合并行训练模型。

  • Generative Pretrained Structured Transformers(GPST)在语言理解和生成任务中优于 GPT-2。

  • GPST 在左到右语法归纳方面显著优于现有的无监督 SLM。

  • GPST 具有训练加速的优势。

➡️

继续阅读