谷歌的新LiteRT加速器为高通Snapdragon驱动的Android设备提供强劲的AI工作负载支持

谷歌的新LiteRT加速器为高通Snapdragon驱动的Android设备提供强劲的AI工作负载支持

💡 原文英文,约500词,阅读约需2分钟。
📝

内容提要

谷歌推出LiteRT的新加速器QNN,显著提升高通Snapdragon 8 SoC设备的AI性能。QNN在CPU上速度提升可达100倍,GPU提升10倍,支持90种LiteRT操作,优化LLM性能。在72个ML模型中,有64个成功实现NPU全委托,极大改善用户体验。

🎯

关键要点

  • 谷歌推出了LiteRT的新加速器QNN,提升高通Snapdragon 8 SoC设备的AI性能。

  • QNN在CPU上速度提升可达100倍,GPU提升10倍,支持90种LiteRT操作。

  • QNN旨在优化LLM性能,提供统一简化的工作流程。

  • 在72个ML模型中,有64个成功实现NPU全委托,显著改善用户体验。

  • 在Snapdragon 8 Elite Gen 5 SoC上,56个模型在NPU上运行时间低于5毫秒,而CPU上仅有13个模型达到该标准。

  • 谷歌开发了一个概念应用,利用优化后的Apple FastVLM-0.5B模型,能够几乎即时解释相机的实时场景。

  • QNN目前仅支持部分Android硬件,主要是Snapdragon 8和Snapdragon 8+ SoC设备。

延伸问答

LiteRT加速器QNN的主要功能是什么?

LiteRT加速器QNN主要用于提升高通Snapdragon 8 SoC设备的AI性能,提供高达100倍的CPU速度提升和10倍的GPU速度提升。

QNN如何改善用户体验?

QNN通过实现64个ML模型的NPU全委托,显著提高了AI任务的处理速度,改善了用户体验。

QNN支持哪些操作?

QNN支持90种LiteRT操作,旨在实现全模型委托以优化性能。

在Snapdragon 8 Elite Gen 5 SoC上,QNN的性能表现如何?

在Snapdragon 8 Elite Gen 5 SoC上,56个模型在NPU上运行时间低于5毫秒,而CPU上仅有13个模型达到该标准。

QNN与之前的TFLite QNN delegate有什么不同?

QNN是谷歌与高通合作开发的替代品,提供统一简化的工作流程,集成了多种SoC编译器和运行时。

QNN目前支持哪些Android设备?

QNN目前仅支持部分Android硬件,主要是Snapdragon 8和Snapdragon 8+ SoC设备。

➡️

继续阅读