ContextSeg:通过注意力查询上下文的草图语义分割
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本文介绍了一种基于层级注意力双向LSTM网络的主题分割器,通过添加辅助任务和自注意力来建模上下文,超过了SOTA方法,在领域转移和多语言场景中表现出鲁棒性和有效性。
🎯
关键要点
-
提出了一种基于层级注意力双向LSTM网络的主题分割器。
-
通过添加相干性相关的辅助任务来建模上下文。
-
使用受限制自注意力来增强模型性能。
-
该方法超过了当前的SOTA方法。
-
在领域转移设置中表现出鲁棒性。
-
在多语言场景中显示出有效性。
🏷️
标签
➡️