💡
原文英文,约1200词,阅读约需5分钟。
📝
内容提要
我们发布了第五代嵌入模型jina-embeddings-v5-text,提供677M和239M参数的两个版本,支持32K上下文和四种任务特定的LoRA适配器。v5-text-small在MMTEB上得分67.0,超越其他小于1B的模型,且体积更小。该模型在多语言和英语任务中表现优异,适合内存受限的部署。
🎯
关键要点
- 发布了第五代嵌入模型jina-embeddings-v5-text,提供677M和239M参数的两个版本。
- v5-text-small在MMTEB上得分67.0,超越其他小于1B的模型,且体积更小。
- 两个模型支持32K上下文和四种任务特定的LoRA适配器。
- v5-text-small在多语言和英语任务中表现优异,适合内存受限的部署。
- v5-text-small在检索任务上与3.8B的jina-embeddings-v4相当,但体积小5.6倍。
- v5-text-nano在239M参数下的检索质量与双倍参数的模型相当。
- v5-text-small在英语任务中得分71.7,领先所有小于1B的多语言模型。
- 模型使用解码器架构,采用最后一个token的池化方式。
- Elastic Inference Service提供了快速的生产环境使用方式。
- Jina Embedding API支持按token计费,适合任务选择和批处理。
- 模型经过Qwen3-Embedding-4B的蒸馏训练,结合了对比损失和蒸馏损失。
- 训练中应用了GOR正则化,使得二进制量化几乎无损,适合内存受限的部署。
- 嵌入模型越来越多地作为大型系统中的工具链组件使用,推向更小的模型以适应内存限制。
❓
延伸问答
jina-embeddings-v5-text模型有哪些参数版本?
该模型提供677M和239M参数的两个版本。
v5-text-small在MMTEB上的得分是多少?
v5-text-small在MMTEB上得分67.0。
这款模型适合什么样的部署环境?
该模型适合内存受限的部署环境。
v5-text-small与v4模型相比有什么优势?
v5-text-small在检索任务上与3.8B的jina-embeddings-v4相当,但体积小5.6倍。
模型的训练方法是什么?
模型经过Qwen3-Embedding-4B的蒸馏训练,结合了对比损失和蒸馏损失。
Elastic Inference Service的作用是什么?
Elastic Inference Service提供了快速的生产环境使用方式,支持直接生成嵌入。
➡️