小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
沉浸式翻译 immersive translate
Dify.AI

本文介绍了如何使用vLLM进行离线推理,特别是在视觉语言模型中采用正确的提示格式进行文本生成。示例展示了多种模型的提示格式和参数设置,以确保在不同GPU上有效运行。

【vLLM 学习】视觉语言

HyperAI超神经
HyperAI超神经 · 2026-03-09T02:10:53Z
vLLM Triton 注意力后端深度解析

本文介绍了IBM研究、红帽和AMD团队开发的vLLM Triton注意力后端,旨在实现跨GPU平台的高性能。Triton是一种特定领域语言,支持用Python编写高效的GPU内核,兼容多种模型和硬件。通过优化内核设计和微基准测试,Triton后端在AMD、NVIDIA和Intel平台上表现优异,成为默认的注意力后端。

vLLM Triton 注意力后端深度解析

vLLM Blog
vLLM Blog · 2026-03-04T00:00:00Z

本文介绍了使用vllm库生成文本的代码示例,包括采样参数设置、提示和答案的定义,以及通过LLM模型生成文本并验证输出的过程。

【vLLM 学习】TPU

HyperAI超神经
HyperAI超神经 · 2026-03-02T05:31:10Z
当多模态开始卷落地:MiniCPM-o-4.5仅9B覆盖实时图像理解与文本生成;vLLM Omni 同时支持文本与多模态模型的高吞吐部署与服务化

OpenBMB推出的MiniCPM-o-4.5模型仅用9B参数实现全模态能力,强调跨模态对齐与推理效率,适合主流GPU部署,具备高性能与轻量化优势。

当多模态开始卷落地:MiniCPM-o-4.5仅9B覆盖实时图像理解与文本生成;vLLM Omni 同时支持文本与多模态模型的高吞吐部署与服务化

HyperAI超神经
HyperAI超神经 · 2026-02-28T06:48:25Z
超越移植:vLLM如何在AMD ROCm上协调高性能推理

处理部分构建KV缓存请求的额外提示侧令牌,关注缓存上下文与新输入,属于混合工作负载。在线服务中,调度程序利用此阶段将长提示工作分解,并与其他请求的解码交错,以提高延迟和吞吐量的整体平衡。

超越移植:vLLM如何在AMD ROCm上协调高性能推理

vLLM Blog
vLLM Blog · 2026-02-27T00:00:00Z
在Amazon SageMaker AI和Amazon Bedrock上高效服务数十个微调模型与vLLM

为解决多模型AI服务的闲置GPU成本问题,我们与vLLM社区合作开发了Multi-LoRA技术,允许多个模型共享同一GPU,优化MoE模型的推理性能。该技术通过保持原始权重不变,仅调整小型适配器,显著提升了输出速度并降低了延迟,适用于多个开源MoE模型,并已在Amazon SageMaker和Bedrock上实现。

在Amazon SageMaker AI和Amazon Bedrock上高效服务数十个微调模型与vLLM

vLLM Blog
vLLM Blog · 2026-02-26T00:00:00Z

本文介绍了使用torchrun进行张量并行推理的实验性支持,包括运行命令和示例代码,展示了如何创建提示和采样参数以生成输出,并提到跨进程传递控制消息的技巧。

【vLLM 学习】Torchrun Example

HyperAI超神经
HyperAI超神经 · 2026-02-25T07:43:46Z

vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。

【vLLM 学习】Structured Outputs

HyperAI超神经
HyperAI超神经 · 2026-02-09T03:28:47Z
推动vLLM WideEP和大规模服务在Blackwell平台上的成熟(第一部分)

vLLM团队在NVIDIA GB200平台上优化性能,实现26.2K预填TPGS和10.1K解码TPGS,较H200提升3-5倍。通过低精度操作、内核融合和权重卸载等技术,显著提升计算效率和带宽利用率。

推动vLLM WideEP和大规模服务在Blackwell平台上的成熟(第一部分)

vLLM Blog
vLLM Blog · 2026-02-03T00:00:00Z

更多 vLLM 中文文档及教程可访问 →https://hyper.ai/notebooks/37048?vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。源码 examples/offline_inference/simple_profiling.py。

【vLLM 学习】Simple Profiling

HyperAI超神经
HyperAI超神经 · 2026-02-02T03:49:41Z

Large language model inference has traditionally operated on a simple premise: the user submits a complete prompt (request), the model processes it, and returns a response (either streaming or at...

Streaming Requests & Realtime API in vLLM

vLLM Blog
vLLM Blog · 2026-01-31T00:00:00Z

​ vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。 ​

【vLLM 学习】Save Sharded State

HyperAI超神经
HyperAI超神经 · 2026-01-26T02:54:58Z

vLLM团队官宣创业:融资1.5亿美元,清华特奖游凯超成为联创

机器之心
机器之心 · 2026-01-23T01:37:37Z
在AMD GPU上构建混合模型与vLLM-SR

我们正在构建混合模型(MoM)系统,以提升大型语言模型(LLM)的集体智能。核心问题包括捕捉请求与响应信号、优化模型协作和确保系统安全。通过vLLM语义路由器,我们展示了在AMD GPU上实时路由查询的能力,支持多种模型和信号类型。MoM架构通过智能调度和能力匹配,实现高效的AI部署。

在AMD GPU上构建混合模型与vLLM-SR

vLLM Blog
vLLM Blog · 2026-01-23T00:00:00Z

更多 vLLM 中文文档及教程可访问 →https://vllm.hyper.ai/vLLM 是一款专为大语言模型推理加速而设计的框架,实现了。内存几乎零浪费,解决了。

【vLLM 学习】Rlhf Utils

HyperAI超神经
HyperAI超神经 · 2026-01-19T10:56:14Z

vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。

【vLLM 学习】Rlhf Colocate

HyperAI超神经
HyperAI超神经 · 2026-01-14T02:41:23Z
vLLM新KV卸载连接器内部揭秘:智能内存传输以最大化推理吞吐量

vLLM 0.11.0引入KV缓存卸载功能,将缓存转移至CPU内存(DRAM),提升推理吞吐量。通过缓存KV值,降低计算需求,改善请求延迟和每节点吞吐量。新API支持异步加载和存储KV数据,优化GPU与CPU间的数据传输,显著提升性能。

vLLM新KV卸载连接器内部揭秘:智能内存传输以最大化推理吞吐量

vLLM Blog
vLLM Blog · 2026-01-08T00:00:00Z

vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。

【vLLM 学习】Rlhf

HyperAI超神经
HyperAI超神经 · 2026-01-07T07:42:44Z

Qwen2.5-32B和Qwen2.5-VL-32B是通义千问系列的两个大模型,分别为纯文本和多模态模型。部署前需确认硬件要求,建议使用Docker环境并安装NVIDIA工具包。模型支持中英文,具备强大推理能力,适用于图文问答和多模态推理。

vLLM 部署Qwen2.5 LLM & VLM 大模型

安志合的学习博客
安志合的学习博客 · 2026-01-05T13:16:14Z
vLLM语义路由器v0.1 Iris:首次重大发布

vLLM语义路由器v0.1(代号Iris)是一个智能路由平台,连接用户与多种AI模型。它通过信号捕捉和智能决策优化模型选择与安全过滤,支持无限扩展,性能显著提升,并具备实时幻觉检测功能,简化用户体验。

vLLM语义路由器v0.1 Iris:首次重大发布

vLLM Blog
vLLM Blog · 2026-01-05T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码