研究团队推出了Prefill-as-a-Service(PrFaaS),旨在解决大模型推理中的跨机房调度问题。该架构通过将Prefill计算卸载到专用集群,并利用普通以太网传输KV Cache,显著提升了吞吐量和降低了延迟。实验结果表明,PrFaaS在吞吐量上提升54%,P90延迟降低64%,有效支持长上下文场景。
关键值缓存(KVCache)是现代大语言模型(LLM)服务的核心,存储过去的注意力状态以提高生成新标记的效率。LLM推理分为预填充和解码两个阶段。KVCache管理经历了从简单实现到2023年PagedAttention的演变,显著提升了内存利用率和并发请求能力。2024年,随着多模态模型的出现,KVCache的概念得到了进一步扩展。
在PD分离部署中,异构显卡会增加跨机通信压力。通过RDMA设备加速kvcache传输,降低FTTL。安装驱动后可选择标准或兼容模式,兼容模式支持更多应用。性能测试显示eRDMA速度接近25.0 Gbps。配置和测试过程包括安装工具、查看设备信息及启动容器环境。
随着PD分离系统的推广,kvcache传输影响了用户体验。通过采用nccl和改进发送行为,传输性能显著提升,提升幅度达到42.90%。
完成下面两步后,将自动完成登录并继续当前操作。