N-gram预测与词差表示在语言建模中的应用

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本研究分析了神经机器翻译模型在不同粒度上学习到的表示,并通过外围特性评估其质量。结果显示深层次的NMT模型学习了大量语言信息,包括词组结构和词类等语言单元。词汇语义和非局部的句法和语义依存在较高层次上表示更好。使用字符学习的表示比使用子词单位学习的更具有词形信息。多语言模型学习的表示比双语模型更丰富。

🎯

关键要点

  • 本研究分析神经机器翻译模型在不同粒度上学习到的表示。
  • 深层次的NMT模型学习了大量语言信息。
  • 词组结构和词类等语言单元在模型较低层次上被捕捉。
  • 词汇语义和非局部的句法和语义依存则在较高层次上表示更好。
  • 使用字符学习的表示比使用子词单位学习的更具有词形信息。
  • 多语言模型学习的表示比双语模型更丰富。
➡️

继续阅读