N-gram预测与词差表示在语言建模中的应用
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本研究分析了神经机器翻译模型在不同粒度上学习到的表示,并通过外围特性评估其质量。结果显示深层次的NMT模型学习了大量语言信息,包括词组结构和词类等语言单元。词汇语义和非局部的句法和语义依存在较高层次上表示更好。使用字符学习的表示比使用子词单位学习的更具有词形信息。多语言模型学习的表示比双语模型更丰富。
🎯
关键要点
- 本研究分析神经机器翻译模型在不同粒度上学习到的表示。
- 深层次的NMT模型学习了大量语言信息。
- 词组结构和词类等语言单元在模型较低层次上被捕捉。
- 词汇语义和非局部的句法和语义依存则在较高层次上表示更好。
- 使用字符学习的表示比使用子词单位学习的更具有词形信息。
- 多语言模型学习的表示比双语模型更丰富。
➡️