ContextSeg:通过注意力查询上下文的草图语义分割
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本文介绍了一种基于层级注意力双向LSTM网络的主题分割器,通过添加辅助任务和自注意力来建模上下文,超过了SOTA方法,在领域转移和多语言场景中表现出鲁棒性和有效性。
🎯
关键要点
- 提出了一种基于层级注意力双向LSTM网络的主题分割器。
- 通过添加相干性相关的辅助任务来建模上下文。
- 使用受限制自注意力来增强模型性能。
- 该方法超过了当前的SOTA方法。
- 在领域转移设置中表现出鲁棒性。
- 在多语言场景中显示出有效性。
🏷️
标签
➡️