加速带有猜测的检索增强语言模型服务
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该文章介绍了一种新的算法,利用大型语言模型(LLM)进行分阶段投机性解码,以加速小批量、设备上的LLM推断。通过改进前期工作,解决了小批量推断的低算术密度问题。该算法通过重新组织投机性批量为一棵树,并添加第二阶段的投机性解码,将单批解码延迟降低了3.16倍。
🎯
关键要点
- 提出了一种新算法:分阶段投机性解码。
- 该算法旨在加速小批量、设备上的大型语言模型推断。
- 解决了小批量推断的低算术密度问题。
- 通过将投机性批量重新组织为一棵树,降低生成成本并增加每批预期的标记数。
- 添加了第二阶段的投机性解码。
- 在保持输出质量的同时,单批解码延迟降低了3.16倍。
- 使用的模型为762M参数的GPT-2-L。
➡️