【YOLOv8量化】普通CPU上加速推理可达100+FPS

💡 原文中文,约1100字,阅读约需3分钟。
📝

内容提要

OpenVINO 2023引入了一个名为NNCF(神经网络压缩框架)的新支持工具,通过压缩和量化OpenVINO IR格式模型,提高了模型在OpenVINO框架上的部署性能。NNCF包可以使用pip安装。它支持用于后训练压缩的权重压缩和量化算法,以及用于训练压缩的感知量化、混合精度量化、二进制、稀疏、滤波剪枝和运动剪枝算法。文章还提供了使用NNCF实现YOLOv8模型压缩和量化的代码示例。还提到了使用OpenVINO C++ SDK测试量化的YOLOv8模型的结果。

🎯

关键要点

  • OpenVINO 2023引入了NNCF(神经网络压缩框架)工具包,提升模型部署性能。
  • NNCF可以通过pip安装,支持多种压缩和量化算法。
  • 支持的算法包括权重压缩、感知量化、混合精度量化、二值、稀疏、过滤剪枝和运动剪枝。
  • 提供了使用NNCF实现YOLOv8模型压缩和量化的代码示例。
  • 使用YOLOv8命令行工具导出OpenVINO格式模型。
  • 构建YOLOv8模型对应的COCO数据集的Validator,使用DetectionValidator获取dataloader实例。
  • 完成PTQ量化模型的生成,相关代码在GITHUB官方教程中有说明。
  • 基于YOLOv8 INT8量化模型,使用OpenVINO C++ SDK进行推理测试,得到了最终测试结果。
  • 特别说明:测试基于OpenVINO 2023.1版本。
➡️

继续阅读