【YOLOv8量化】普通CPU上加速推理可达100+FPS
💡
原文中文,约1100字,阅读约需3分钟。
📝
内容提要
OpenVINO 2023引入了一个名为NNCF(神经网络压缩框架)的新支持工具,通过压缩和量化OpenVINO IR格式模型,提高了模型在OpenVINO框架上的部署性能。NNCF包可以使用pip安装。它支持用于后训练压缩的权重压缩和量化算法,以及用于训练压缩的感知量化、混合精度量化、二进制、稀疏、滤波剪枝和运动剪枝算法。文章还提供了使用NNCF实现YOLOv8模型压缩和量化的代码示例。还提到了使用OpenVINO C++ SDK测试量化的YOLOv8模型的结果。
🎯
关键要点
- OpenVINO 2023引入了NNCF(神经网络压缩框架)工具包,提升模型部署性能。
- NNCF可以通过pip安装,支持多种压缩和量化算法。
- 支持的算法包括权重压缩、感知量化、混合精度量化、二值、稀疏、过滤剪枝和运动剪枝。
- 提供了使用NNCF实现YOLOv8模型压缩和量化的代码示例。
- 使用YOLOv8命令行工具导出OpenVINO格式模型。
- 构建YOLOv8模型对应的COCO数据集的Validator,使用DetectionValidator获取dataloader实例。
- 完成PTQ量化模型的生成,相关代码在GITHUB官方教程中有说明。
- 基于YOLOv8 INT8量化模型,使用OpenVINO C++ SDK进行推理测试,得到了最终测试结果。
- 特别说明:测试基于OpenVINO 2023.1版本。
➡️