Mac本地快速部署DeepSeek

💡 原文中文,约1100字,阅读约需3分钟。
📝

内容提要

本文介绍了在Mac上快速部署DeepSeek的步骤,包括下载Ollama、安装DeepSeek、选择合适的模型(如1.5b、7b、8b等),以及下载和配置Chatbox以连接本地DeepSeek。用户需根据内存选择模型大小,完成后可在终端与DeepSeek进行交互。

🎯

关键要点

  • 下载Ollama并安装运行DeepSeek。
  • DeepSeek-R1模型提供7个选择:1.5b、7b、8b、14b、32b、70b、671b。
  • 根据内存选择模型大小,8G内存建议选择1.5b,16G内存建议选择7b或8b。
  • 下载符合平台的Ollama,文件名为Ollama-darwin.zip。
  • 在终端运行命令以启动DeepSeek。
  • 下载Chatbox并配置为本地DeepSeek,选择OLLAMA API而非DeepSeek API。

延伸问答

如何在Mac上安装DeepSeek?

首先下载Ollama并安装,然后在终端运行命令启动DeepSeek。

DeepSeek支持哪些模型?

DeepSeek-R1模型提供1.5b、7b、8b、14b、32b、70b、671b等7个选择。

如何选择合适的DeepSeek模型?

根据内存选择,8G内存建议选择1.5b,16G内存建议选择7b或8b。

如何配置Chatbox以连接本地DeepSeek?

下载Chatbox并选择OLLAMA API,而非DeepSeek API进行配置。

Ollama的下载文件名是什么?

下载文件名为Ollama-darwin.zip。

DeepSeek的本地交互需要联网吗?

不需要联网,可以在本地与DeepSeek进行交互。

🏷️

标签

➡️

继续阅读