小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
技术深度剖析:DigitalOcean和AMD如何为Character.ai实现2倍的生产推理性能提升

Character.ai与DigitalOcean和AMD合作,优化了AI平台的GPU性能,实现推理吞吐量提升至2倍,降低了推理成本,提升了响应速度,满足大规模低延迟需求。

技术深度剖析:DigitalOcean和AMD如何为Character.ai实现2倍的生产推理性能提升

The DigitalOcean Blog
The DigitalOcean Blog · 2026-01-13T12:30:00Z
vLLM新KV卸载连接器内部揭秘:智能内存传输以最大化推理吞吐量

vLLM 0.11.0引入KV缓存卸载功能,将缓存转移至CPU内存(DRAM),提升推理吞吐量。通过缓存KV值,降低计算需求,改善请求延迟和每节点吞吐量。新API支持异步加载和存储KV数据,优化GPU与CPU间的数据传输,显著提升性能。

vLLM新KV卸载连接器内部揭秘:智能内存传输以最大化推理吞吐量

vLLM Blog
vLLM Blog · 2026-01-08T00:00:00Z
老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

DeepSeek R1模型利用INT8量化技术克服了GPU部署的限制,显著提升了推理吞吐量并降低了成本,量化后模型精度几乎无损,已在Hugging Face开源,欢迎交流与学习。

老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

美团技术团队
美团技术团队 · 2025-03-07T00:00:00Z
老显卡福音!美团技术团队开源首发INT8无损满血版DeepSeek R1

美团团队对DeepSeek R1模型进行了INT8量化,解决了GPU兼容性问题,支持A100等旧型号GPU的部署。量化后模型精度几乎无损,推理吞吐量提升50%。相关代码已开源,方便用户使用。

老显卡福音!美团技术团队开源首发INT8无损满血版DeepSeek R1

机器之心
机器之心 · 2025-03-03T02:26:05Z

Llamba是一种高效的循环语言模型,源自Llama-3.x,旨在克服变压器模型在推理吞吐量和大批量处理上的局限。该模型通过跨架构蒸馏,优化了速度、内存效率和性能,特别适用于智能手机和边缘平台。

Llamba: A Distilled Recurrent Model for Scalable Efficient Language Processing

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-20T00:00:00Z

该论文研究了不同粒度的MoE模型中的路由策略,通过任务级路由在大规模数据集上实验,提取可部署的子网络。实验结果表明,task-MoE在WMT上的表现比token-MoE高1.0 BLEU,保留所有收益并与蒸馏后的student模型推理成本相同。在扩展到200种语言对时,task-MoE提高了推理吞吐量2.6倍。

动态专家分配的混合专家模型:DA-MoE

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-10T00:00:00Z

该论文研究了不同粒度的MoE模型中的路由策略,通过任务级路由在大规模数据集上实验,提取可部署的子网络。实验结果表明,task-MoE模型在多种语言对上的表现优于token-MoE模型,并且推理成本相同。在扩展到200种语言对时,task-MoE模型提高了推理吞吐量。

MoE-LPR:通过语言先验路由的专家混合模型实现大型语言模型的多语言扩展

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-21T00:00:00Z

该论文研究了不同粒度的MoE模型中的路由策略,通过任务级路由在大规模数据集上实验,提取可部署的子网络。实验结果表明,task-MoE模型在多种语言对上的表现优于token-MoE模型,并且推理成本相同。在扩展到200种语言对时,task-MoE模型提高了推理吞吐量2.6倍。

砰!就这样:混合专家的简单高效参数再利用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-15T00:00:00Z

该论文研究了不同粒度的MoE模型中的路由策略,通过任务级路由在大规模数据集上实验,能够从大型稀疏模型中提取更小、可部署的子网络。实验结果显示,task-MoE在WMT上的表现比token-MoE高1.0 BLEU,并且推理成本相同。在扩展到200种语言对时,task-MoE提高了推理吞吐量2.6倍。

利用层间专家亲和性加速混合专家模型推理

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-16T00:00:00Z

本文介绍了一种新的注意力模型Mamba,它基于SSM架构,具有线性复杂度和5倍推理吞吐量。Mamba在多个模态上表现出SOTA水平,在预训练和下游任务上都优于同类模型。作者认为Mamba是通用序列模型骨干的有力候选者。

一文通透想颠覆Transformer的Mamba:从SSM、HiPPO、S4到Mamba

结构之法 算法之道
结构之法 算法之道 · 2023-12-11T04:48:36Z

该论文研究了不同粒度的MoE模型中的路由策略,通过任务级路由在数据集上进行实验,能够从大型稀疏模型中提取更小、可部署的子网络。实验结果表明,task-MOE在30种语言对上的表现平均比token-MoE高1.0 BLEU,并且能够保留所有收益。同时,当扩展到200种语言对时,task-MoE表现相近,并且提高了推理吞吐量2.6倍。

令牌混合:通过跨样本聚合实现高效的 LLMs

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-24T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码