Liquid AI发布LFM2.5:专为真实设备端智能体打造的紧凑型 AI 模型系列

Liquid AI发布LFM2.5:专为真实设备端智能体打造的紧凑型 AI 模型系列

💡 原文中文,约2200字,阅读约需6分钟。
📝

内容提要

Liquid AI推出LFM2.5,基于LFM2架构,专注于设备和边缘部署,支持多种语言和视觉模型。在多个基准测试中表现优异,尤其在文本和日语任务上超越同类模型,适用于多模态应用。

🎯

关键要点

  • Liquid AI推出LFM2.5,基于LFM2架构,专注于设备和边缘部署。
  • LFM2.5系列包括LFM2.5-1.2B-Base和LFM2.5-1.2B-Instruct,支持多种语言和视觉模型。
  • 模型以开源权重形式发布在Hugging Face上,并通过LEAP平台对外开放。
  • LFM2.5的预训练规模从10T扩展到28T个token,采用混合架构以实现高效内存推理。
  • LFM2.5-1.2B-Instruct在多个基准测试中表现优异,GPQA得分为38.89,MMLU Pro得分为44.35。
  • LFM2.5-1.2B-JP是日语优化版本,在日语任务上优于通用指令模型。
  • LFM2.5-VL-1.6B是视觉语言模型,优化用于文档理解和多图像推理。
  • LFM2.5-Audio-1.5B是音频语言模型,支持文本和音频的输入输出,具有低延迟生成模式。
  • 该系列模型涵盖基础版、指令版、日语版、视觉语言版和音频语言版,均以开放权重形式发布。

延伸问答

LFM2.5模型的主要特点是什么?

LFM2.5模型专注于设备和边缘部署,支持多种语言和视觉模型,预训练规模从10T扩展到28T个token,采用混合架构以实现高效内存推理。

LFM2.5-1.2B-Instruct在基准测试中的表现如何?

LFM2.5-1.2B-Instruct在GPQA测试中得分为38.89,在MMLU Pro测试中得分为44.35,表现优于其他同类模型。

LFM2.5系列模型有哪些不同的版本?

LFM2.5系列包括基础版、指令版、日语版、视觉语言版和音频语言版,满足不同应用需求。

LFM2.5-VL-1.6B模型的应用场景是什么?

LFM2.5-VL-1.6B模型优化用于文档理解、用户界面阅读和多图像推理等实际应用任务。

LFM2.5-Audio-1.5B模型的生成模式有哪些?

LFM2.5-Audio-1.5B模型支持交错生成模式和顺序生成模式,适用于实时语音对话和自动语音识别等任务。

LFM2.5模型的开源发布平台是什么?

LFM2.5模型以开源权重的形式发布在Hugging Face上,并通过LEAP平台对外开放。

➡️

继续阅读