小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

LMCache 是一个开源项目,通过缓存 KV Cache 来降低模型生成第一个 token 的时间(TTFT),支持多种存储后端(内存、磁盘、Redis)。测试表明,使用 LMCache 后,TTFT 平均降低约 42%。

使用 lmcache 能显著改善模型推理的 TTFT

陈少文的博客
陈少文的博客 · 2025-09-17T00:00:00Z
通过LMCache和Redis实现更快的LLM推理和更低成本的响应

随着生成式AI的发展,LMCache和Redis通过缓存重复的键值对,减少冗余计算,提高推理速度。LMCache在多轮对话和长文本生成中表现突出,而Redis则提供低延迟的存储和检索。两者结合优化了计算资源的使用,提升了AI应用效率。

通过LMCache和Redis实现更快的LLM推理和更低成本的响应

Redis Blog
Redis Blog · 2025-07-28T00:00:00Z

vLLM 是一款加速大语言模型推理的框架,解决了内存管理瓶颈,并支持 KV 缓存。文章介绍了如何使用 vLLM 和 LMCache 进行预填充和解码,包括环境变量设置和示例代码。

【vLLM 学习】Disaggregated Prefill Lmcache

HyperAI超神经
HyperAI超神经 · 2025-06-18T05:36:10Z

vLLM 是一款加速大语言模型推理的框架,解决了内存管理瓶颈,实现了几乎零浪费的 KV 缓存。该框架支持 CPU 卸载和 LMCache,并提供示例代码和配置说明,方便用户进行实验和开发。

【vLLM 学习】Cpu Offload Lmcache

HyperAI超神经
HyperAI超神经 · 2025-06-06T12:25:28Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码