微软将DeepSeek-R1 7B和14B版引入Copilot AI PC 使用NPU单元在本地运行
💡
原文中文,约900字,阅读约需3分钟。
📝
内容提要
微软推出 DeepSeek-R1 7B 和 14B 模型,用户可在 Copilot+PC 上通过本地 NPU 单元离线运行 AI。目前速度较慢,1.5B 版为 40 tokens/秒,14B 版仅 8 tokens/秒,未来将优化并支持更多设备。
🎯
关键要点
- 微软推出 DeepSeek-R1 7B 和 14B 模型,用户可在 Copilot+PC 上通过本地 NPU 单元离线运行 AI。
- 目前 1.5B 版速度为 40 tokens/秒,14B 版速度仅为 8 tokens/秒,速度较慢。
- 微软计划将 DeepSeek-R1 模型的 NPU 优化版引入搭载高通骁龙 X 处理器的 Microsoft Copilot PC。
- DeepSeek-R1 7B 和 14B 精简版模型通过 Microsoft Azure AI Foundry 提供,支持本地运行 AI 任务。
- 本地运行 AI 模型可以延长设备续航时间,且用户无需通过 API 付费。
- 微软使用内部自动量化工具 Aqua 将 DeepSeek 模型量化为 int4 权重。
- 未来微软将继续优化模型以提高速度,并将推送给搭载英特尔和 AMD NPU 单元的设备。
- 不具备 NPU 单元的设备暂时无法使用此类人工智能。
❓
延伸问答
DeepSeek-R1 模型的主要功能是什么?
DeepSeek-R1 模型允许用户在 Copilot+PC 上通过本地 NPU 单元离线运行 AI 模型。
目前 DeepSeek-R1 7B 和 14B 版的运行速度如何?
1.5B 版速度为 40 tokens/秒,14B 版速度仅为 8 tokens/秒,速度较慢。
使用 DeepSeek-R1 模型的好处有哪些?
用户可以在本地运行 AI 模型,延长设备续航时间,并且无需通过 API 付费。
微软计划如何优化 DeepSeek-R1 模型?
微软计划继续优化模型以提高速度,并将推送给搭载英特尔和 AMD NPU 单元的设备。
DeepSeek-R1 模型是如何量化的?
微软使用内部自动量化工具 Aqua 将 DeepSeek 模型量化为 int4 权重。
哪些设备可以使用 DeepSeek-R1 模型?
只有搭载 NPU 单元的设备可以使用 DeepSeek-R1 模型,不具备 NPU 单元的设备暂时无法使用。
➡️