ADFQ-ViT: 视觉 Transformer 的激活分布友好的后训练量化
原文中文,约200字,阅读约需1分钟。发表于: 。提出了一种名为 ADFQ-ViT 的新型框架,通过引入 Per-Patch Outlier-aware Quantizer、Shift-Log2 Quantizer 和 Attention-score enhanced Module-wise Optimization 等方法,对 Vision Transformers 中的针对 post-LayerNorm 和 post-GELU...
本研究提出了VAQF框架,用于在FPGA平台上构建量化的ViT模型推理加速器。实验结果显示,使用8位激活量化可满足24帧每秒要求,使用6位激活量化可达到30帧每秒目标。