谷歌推出LiteRT的新加速器QNN,显著提升高通Snapdragon 8 SoC设备的AI性能。QNN在CPU上速度提升可达100倍,GPU提升10倍,支持90种LiteRT操作,优化LLM性能。在72个ML模型中,有64个成功实现NPU全委托,极大改善用户体验。
LiteRT是谷歌基于TensorFlow Lite开发的轻量级推理运行时,适用于资源受限的边缘设备。V1兼容经典TFLite API,V2引入异步执行和自动加速器选择,支持多平台。其主要特点包括跨平台支持、硬件加速、异步高效I/O和生态系统兼容性,适合移动实时推理、嵌入式设备和生成模型加速。
LiteRT新版本简化了机器学习推理,增强了GPU和NPU加速支持。新API使开发者更易利用加速,模型速度提升25倍,功耗降低5倍,同时优化了推理性能,支持异步执行以减少延迟。
完成下面两步后,将自动完成登录并继续当前操作。