从预训练变换模型中提取句子嵌入
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文介绍了Sentence-BERT (SBERT),它是预训练BERT网络的修改版,利用孪生和三元组网络结构来推导语义上有意义的句子嵌入,可以使用余弦相似性进行比较,将BERT / RoBERTa的寻找最相似组合的时间从65小时降至大约5秒钟,并保持来自BERT的精度。在共同的STS任务和转移学习任务中,我们评价SBERT和SRoBERTa,该方法优于其他最先进的句子嵌入方法。
🎯
关键要点
-
Sentence-BERT (SBERT) 是预训练BERT网络的修改版。
-
SBERT 利用孪生和三元组网络结构推导句子嵌入。
-
SBERT 可以使用余弦相似性进行句子比较。
-
SBERT 将寻找最相似组合的时间从65小时降至约5秒。
-
SBERT 保持了来自BERT的精度。
-
在共同的STS任务和转移学习任务中,SBERT 和 SRoBERTa 表现优于其他句子嵌入方法。
🏷️
标签
➡️