六虎

六虎 -

6行代码,1行命令!轻松实现多模态(视觉)模型离线推理 & 在线服务

早在去年年底,LMDeploy 已经悄悄地支持了多模态(视觉)模型(下文简称 VLM)推理,只不过它静静地躺在仓库的 examples/vl 角落里,未曾与大家正式照面。 LMDeploy 开源链接:

LMDeploy发布了v0.2.6版本,支持多模态(视觉)模型(VLM)推理和服务。使用LMDeploy可以简单地完成推理和建立服务。支持多种输入形式和多轮对话接口。可以将VLM模型封装为服务,类似于OpenAI或gradio服务。可以通过设置推理引擎参数来解决多卡并行、内存占用和序列长度等问题。欢迎关注LMDeploy项目。

相关推荐 去reddit讨论

热榜 Top10

观测云
观测云
Dify.AI
Dify.AI
eolink
eolink
LigaAI
LigaAI

推荐或自荐