CoT-BERT: 通过思维链增强无监督句子表示
原文中文,约300字,阅读约需1分钟。发表于: 。利用无监督的句子表示学习方法,通过对输入句子进行转换,得到富含复杂语义信息的定长向量表示,消除了对标注数据的依赖。本文提出了一种两阶段的方法,通过理解和总结对预训练模型(如 BERT)的潜在能力进行开发,并通过精细调整对比学习损失函数和模板去噪技术来进一步提高性能。实验证明,所提出的 CoT-BERT 方法在无需其他文本表示模型或外部数据库的情况下超越了一系列强大的基准模型。
本文提出了一种无监督的句子表示学习方法,通过转换输入句子得到定长向量表示,消除了对标注数据的依赖。使用两阶段的方法进一步提高性能。实验证明,CoT-BERT 方法超越了一系列强大的基准模型。