小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
量化感知训练的jina-embeddings-v4

量化是解决AI规模问题的常用方法,通过舍弃低位数字来减少存储空间。本文介绍了无损量化训练方法(QAT),并比较了不同量化技术的优缺点。实验结果表明,QAT显著提升模型性能,减少嵌入向量大小,加快信息检索速度。

量化感知训练的jina-embeddings-v4

Jina AI
Jina AI · 2025-06-30T19:14:36Z
谷歌的Gemma 3 QAT语言模型可以在消费级GPU上本地运行

谷歌推出Gemma 3 QAT系列,采用量化感知训练(QAT),将模型权重从16位量化至4位,保持高精度。该系列包括四种模型(1B、4B、12B、27B),可在低功耗硬件上运行,降低VRAM需求。同时,Gemma 3增强了视觉能力,用户反馈良好。模型权重可在HuggingFace等平台获取。

谷歌的Gemma 3 QAT语言模型可以在消费级GPU上本地运行

InfoQ
InfoQ · 2025-04-29T13:00:00Z
在Word中使用强大的Gemma 3 QAT模型(100%私密)

Gemma 3 QAT模型通过量化技术降低内存使用,支持在个人GPU上运行,并可集成到Microsoft Word中,确保数据隐私且免除订阅费用。

在Word中使用强大的Gemma 3 QAT模型(100%私密)

DEV Community
DEV Community · 2025-04-22T11:05:58Z
一台3090就能跑Gemma 3 27B!谷歌发布Gemma 3全系QAT版模型

谷歌Gemma 3新版本通过量化感知训练(QAT)优化,显著降低内存需求,27B模型的VRAM从54GB降至14.1GB,支持在消费级GPU上运行,用户可在RTX 3090等设备上轻松使用,提升AI功能。

一台3090就能跑Gemma 3 27B!谷歌发布Gemma 3全系QAT版模型

机器之心
机器之心 · 2025-04-20T02:16:00Z
使用NNCF和🤗 Optimum优化Intel CPU上的Stable Diffusion

本文介绍了如何使用OpenVINO NNCF和Token Merging等技术对Stable Diffusion模型进行优化,以在资源受限的硬件上运行。通过QAT和Knowledge Distillation等方法,可以减少模型的推理时间和内存占用,同时保持准确性。实验结果表明,优化后的模型在CPU上的推理速度比PyTorch快5.1倍,模型大小减小至PyTorch的0.25倍。文章还提供了代码示例,讨论了如何优化通用的Stable Diffusion模型。

使用NNCF和🤗 Optimum优化Intel CPU上的Stable Diffusion

Hugging Face - Blog
Hugging Face - Blog · 2023-05-25T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码