小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文比较了MySQL中不同批量操作方案的性能,分析了INSERT、UPDATE和DELETE操作的耗时及加速比。结果表明,管道化与事务结合的方案在处理大数据量时表现优异,INSERT和DELETE操作的加速比可达4x~5x。建议优先使用ExecuteArrayBatch与Pipeline组合进行批量DML操作。

NewLife.MySql 性能测试报告

dotNET跨平台
dotNET跨平台 · 2026-02-13T00:02:09Z

该文章介绍了在RISC-V平台上实现的全流程Transformer模型推理结果,通过优化算法和硬件设计实现了高速和高效的计算。在编码器模型中,实现了12.8倍的加速比,在解码器模型中实现了35.6倍的加速。与专用加速器相比,实现了2.04倍的FPU利用率。

面向基于注意力机制的轻量级机器学习的异构加速架构和自动化部署流程

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-05T00:00:00Z
无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100

EAGLE-2是一种加速大语言模型推理速度的方法,使用动态草稿树投机采样。它可以将推理速度提高5倍,同时保持输出分布不变。EAGLE-2在多项任务上实验,结果显示其加速比和平均接受长度最高。EAGLE-2在工业界也得到了应用。

无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100

机器之心
机器之心 · 2024-07-17T06:52:58Z

该研究在RISC-V平台上实现了Transformer模型推理结果,通过分布式Softmax原语、ISA扩展、SIMD浮点操作和指令重复以及DMA引擎来提高性能。编码器模型实现了高达12.8倍的加速比,解码器模型在非自回归模式下实现了16.1倍的加速,自回归模式下实现了35.6倍的加速。与SoA专用加速器相比,FPU利用率提高了2.04倍。

在一个开源的 RISC-V 多微核平台上优化基础模型推理

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-29T00:00:00Z

该研究提出了一种新的大规模语言模型结构压缩方法ZipLM,能够在保证加速比的同时提供最先进的压缩精度结果。通过结构剪枝和知识蒸馏技术,ZipLM在GPT2模型上表现最佳。

基于波动的自适应结构修剪大型语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-12-19T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码