《MTEB: Massive Text Embedding Benchmark(海量文本嵌入基准)》评估了海量文本嵌入模型,包含8个语义向量任务,涵盖58个数据集和112种语言。通过测试33个模型发现,没有一种特定的文本嵌入方法在所有任务中占主导地位。中文海量文本embedding任务排行榜包括Retrieval、STS、PairClassification、Classification、Reranking和Clustering。m3e模型使用in-batch负采样的对比学习方式进行训练,使用了指令数据集和Roberta系列模型。bge模型采用高效预训练和大规模文本微调,使用了RetroMAE预训练算法和难负样本挖掘方法。
完成下面两步后,将自动完成登录并继续当前操作。