小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
Meta AI 发布 Llama Guard 3-1B-INT4:用于人机对话的紧凑型高性能 AI 调节模型

Meta推出了Llama Guard 3-1B-INT4模型,以应对生成式人工智能系统在内容安全方面的挑战。该模型体积小、性能强,适合移动设备,具备出色的多语言能力和安全审核功能,标志着生成式AI安全审核的重大进展。

Meta AI 发布 Llama Guard 3-1B-INT4:用于人机对话的紧凑型高性能 AI 调节模型

实时互动网
实时互动网 · 2024-12-02T06:07:08Z

大型语言模型在小批量推断中遇到内存瓶颈。本文提出了一种基于权重的量化方案,特别是sub-4 bit量化的挑战。通过per-IC量化和AdaDim框架,解决了激活异常值的问题。AdaDim适应不同权重敏感性,改进了Round-To-Nearest和GPTQ方法,在语言建模基准测试中表现优异,在MMLU和HumanEval上分别提高了4.7%和10%。

旋转运行平滑:无训练激活平滑器用于准确的INT4推理

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-30T00:00:00Z

本文介绍了一种内存高效的预训练语言模型适应方法,通过矩阵分解和量化部分的更新,实现了对预训练模型的适应。实验结果表明,该方法优于其他基准方法,并能实现更激进的量化。

Q-GaLore: 基于 INT4 投影和层自适应低秩梯度的量化 GaLore

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-11T00:00:00Z

本论文提出了一种通过自动 INT4 纯权重量化流和设计高度优化内核的特殊 LLM 运行时,在 CPU 上加速 LLM 推理的有效方法。该方法展示了对包括 Llama2、Llama、GPT-NeoX 等流行 LLM 的普适性,并显示了在 CPU 上的极高推理效率。

Endor:用于离线 LLM 推断的硬件友好的稀疏格式

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-17T00:00:00Z

本研究探讨了大型语言模型中的量化方法,发现INT4量化在生成类别任务中表现不佳,而FP6量化在准确性和多功能性方面具有优势。提出了一种用于FP6的新设计,以适应不同的AI硬件并实现最佳性能。通过该设计,FP6可以成为当前语言模型中使用的有希望的4位量化方法之一。

FP6-LLM: 通过 FP6 中心算法系统共同设计高效服务大型语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-25T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码