微软将DeepSeek-R1 7B和14B版引入Copilot AI PC 使用NPU单元在本地运行

💡 原文中文,约900字,阅读约需3分钟。
📝

内容提要

微软推出 DeepSeek-R1 7B 和 14B 模型,用户可在 Copilot+PC 上通过本地 NPU 单元离线运行 AI。目前速度较慢,1.5B 版为 40 tokens/秒,14B 版仅 8 tokens/秒,未来将优化并支持更多设备。

🎯

关键要点

  • 微软推出 DeepSeek-R1 7B 和 14B 模型,用户可在 Copilot+PC 上通过本地 NPU 单元离线运行 AI。
  • 目前 1.5B 版速度为 40 tokens/秒,14B 版速度仅为 8 tokens/秒,速度较慢。
  • 微软计划将 DeepSeek-R1 模型的 NPU 优化版引入搭载高通骁龙 X 处理器的 Microsoft Copilot PC。
  • DeepSeek-R1 7B 和 14B 精简版模型通过 Microsoft Azure AI Foundry 提供,支持本地运行 AI 任务。
  • 本地运行 AI 模型可以延长设备续航时间,且用户无需通过 API 付费。
  • 微软使用内部自动量化工具 Aqua 将 DeepSeek 模型量化为 int4 权重。
  • 未来微软将继续优化模型以提高速度,并将推送给搭载英特尔和 AMD NPU 单元的设备。
  • 不具备 NPU 单元的设备暂时无法使用此类人工智能。

延伸问答

DeepSeek-R1 模型的主要功能是什么?

DeepSeek-R1 模型允许用户在 Copilot+PC 上通过本地 NPU 单元离线运行 AI 模型。

目前 DeepSeek-R1 7B 和 14B 版的运行速度如何?

1.5B 版速度为 40 tokens/秒,14B 版速度仅为 8 tokens/秒,速度较慢。

使用 DeepSeek-R1 模型的好处有哪些?

用户可以在本地运行 AI 模型,延长设备续航时间,并且无需通过 API 付费。

微软计划如何优化 DeepSeek-R1 模型?

微软计划继续优化模型以提高速度,并将推送给搭载英特尔和 AMD NPU 单元的设备。

DeepSeek-R1 模型是如何量化的?

微软使用内部自动量化工具 Aqua 将 DeepSeek 模型量化为 int4 权重。

哪些设备可以使用 DeepSeek-R1 模型?

只有搭载 NPU 单元的设备可以使用 DeepSeek-R1 模型,不具备 NPU 单元的设备暂时无法使用。

➡️

继续阅读