An Efficient Self-Supervised Cross-View Sentence Embedding Training
原文约100字/词,阅读约需1分钟。发表于: 。我们提出了一种称为自监督跨视图训练(SCT)的框架,以缩小大型和小型预训练语言模型(PLM)之间性能差距,并在 7 个语义文本相似性(STS)基准测试中通过与 5 个基准和最先进的竞争对手的比较,在参数数量从 4M 到 340M 范围内的 5 个 PLMs 上证明 STC 在 21 个案例中的 18 个中胜过竞争对手,对于参数少于 100M 的 PLMs 表现出色。
该文介绍了一种名为自监督跨视图训练(SCT)的框架,用于缩小大型和小型预训练语言模型(PLM)之间的性能差距。SCT在7个语义文本相似性(STS)基准测试中,与5个基准和最先进的竞争对手相比,在21个案例中的18个中胜过竞争对手,对于参数少于100M的PLMs表现出色。