小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
Kimi新论文:把KVCache玩成新商业模式了

研究团队推出了Prefill-as-a-Service(PrFaaS),旨在解决大模型推理中的跨机房调度问题。该架构通过将Prefill计算卸载到专用集群,并利用普通以太网传输KV Cache,显著提升了吞吐量和降低了延迟。实验结果表明,PrFaaS在吞吐量上提升54%,P90延迟降低64%,有效支持长上下文场景。

Kimi新论文:把KVCache玩成新商业模式了

量子位
量子位 · 2026-04-19T10:19:45Z
模块化:KVCache的五个时代

关键值缓存(KVCache)是现代大语言模型(LLM)服务的核心,存储过去的注意力状态以提高生成新标记的效率。LLM推理分为预填充和解码两个阶段。KVCache管理经历了从简单实现到2023年PagedAttention的演变,显著提升了内存利用率和并发请求能力。2024年,随着多模态模型的出现,KVCache的概念得到了进一步扩展。

模块化:KVCache的五个时代

Modular Blog
Modular Blog · 2026-02-05T00:00:00Z

在PD分离部署中,异构显卡会增加跨机通信压力。通过RDMA设备加速kvcache传输,降低FTTL。安装驱动后可选择标准或兼容模式,兼容模式支持更多应用。性能测试显示eRDMA速度接近25.0 Gbps。配置和测试过程包括安装工具、查看设备信息及启动容器环境。

阿里云 eRDMA 测试及 PD 分离应用部署

陈少文的博客
陈少文的博客 · 2026-01-17T00:00:00Z

随着PD分离系统的推广,kvcache传输影响了用户体验。通过采用nccl和改进发送行为,传输性能显著提升,提升幅度达到42.90%。

PD 分离中的 kvcache 传输优化

学习让我快乐
学习让我快乐 · 2025-08-30T16:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码