小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出了ShadowKV系统,旨在解决长上下文大语言模型推理中的低吞吐量问题。该系统通过存储低秩键缓存并卸载值缓存,显著提升了吞吐量,支持高达6倍的批量尺寸,在A100 GPU上吞吐量提升达到3.04倍。

ShadowKV:高吞吐量长上下文LLM推理中的KV缓存

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-28T00:00:00Z

GS-LRM是一个可扩展的大型重建模型,能够在单个A100 GPU上从2-4个稀疏图像中预测高质量的3D高斯原语,并在0.23秒内完成。该模型采用了基于transformer的简单架构,能够处理不同尺度和复杂性的场景。在Objaverse和RealEstate10K上进行训练后,该模型在对象和场景捕捉方面表现更好。

MVGamba:将 3D 内容生成统一为状态空间序列建模

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-10T00:00:00Z

作者使用A100 GPU资源进行了一次关于使用A100训练Vicuna-13b模型的实践。他进行了环境配置,安装了CUDA和Docker环境,克隆了仓库并下载了模型。然后,他拉取了PyTorch镜像并运行了容器,安装了相关依赖并进行了训练。最后,他解决了一些小问题。

使用A100GPU训练Vicuna-13b模型的实践

Chancel's blog
Chancel's blog · 2023-07-06T00:00:00Z

从环境配置到训练技巧:A100 GPU训练Vicuna-13b模型的完整指南

使用A100GPU训练Vicuna-13b模型的实践

Chancel's blog
Chancel's blog · 2023-07-06T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码