小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

微软开源的三进制LLM BitNet b1.58 2B4T,参数达到2B,内存仅需0.4GB,能在单CPU上高效运行。该模型采用三元值{-1, 0, 1}存储权重,计算效率高,解码延迟仅29ms,能耗低至0.028J,性能优于同类模型。

微软开源“原生1bit”三进制LLM:2B参数,0.4GB内存/单CPU就能跑,性能与同规模全精度开源模型相当

量子位
量子位 · 2025-04-21T04:24:37Z

本文探讨了基于vllm实现的PD分离方案,重点分析了GDR(GPU-Direct RDMA)的细节及其对解码延迟的影响。实验结果表明,GDR对解码延迟几乎没有影响,且该方案对vllm的引入性低,几乎不需改动现有设施。

PD 分离中的 GDR

学习让我快乐
学习让我快乐 · 2025-04-16T16:00:00Z

本研究提出了CORAL框架,解决了推测解码技术在训练与推理中的不一致问题,提升了多步训练的一致性,显著提高了推测性能,减少了解码延迟,其效率和准确性优于现有技术。

CORAL:使用更轻量级的推测草拟器学习跨多步训练的一致表示

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-24T00:00:00Z

该文章介绍了一种新的算法,利用大型语言模型(LLM)进行分阶段投机性解码,以加速小批量、设备上的LLM推断。通过改进前期工作,解决了小批量推断的低算术密度问题。该算法通过重新组织投机性批量为一棵树,并添加第二阶段的投机性解码,将单批解码延迟降低了3.16倍。

图结构推测解码

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-23T00:00:00Z

该文章介绍了一种新的算法,利用大型语言模型(LLM)进行分阶段投机性解码,以加速小批量、设备上的LLM推断。通过改进投机性解码的前期工作,解决了小批量推断的低算术密度问题。该算法通过重新组织投机性批量为一棵树,并添加第二阶段的投机性解码,将单批解码延迟降低了3.16倍。

加速动态猜测长度的猜测解码

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-07T00:00:00Z

该文章介绍了一种新的算法,利用大型语言模型(LLM)进行分阶段投机性解码,以加速小批量、设备上的LLM推断。通过改进前期工作,解决了小批量推断的低算术密度问题。该算法通过重新组织投机性批量为一棵树,并添加第二阶段的投机性解码,将单批解码延迟降低了3.16倍。

加速带有猜测的检索增强语言模型服务

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-25T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码