Mac本地快速部署DeepSeek
💡
原文中文,约1100字,阅读约需3分钟。
📝
内容提要
本文介绍了在Mac上快速部署DeepSeek的步骤,包括下载Ollama、安装DeepSeek、选择合适的模型(如1.5b、7b、8b等),以及下载和配置Chatbox以连接本地DeepSeek。用户需根据内存选择模型大小,完成后可在终端与DeepSeek进行交互。
🎯
关键要点
- 下载Ollama并安装运行DeepSeek。
- DeepSeek-R1模型提供7个选择:1.5b、7b、8b、14b、32b、70b、671b。
- 根据内存选择模型大小,8G内存建议选择1.5b,16G内存建议选择7b或8b。
- 下载符合平台的Ollama,文件名为Ollama-darwin.zip。
- 在终端运行命令以启动DeepSeek。
- 下载Chatbox并配置为本地DeepSeek,选择OLLAMA API而非DeepSeek API。
❓
延伸问答
如何在Mac上安装DeepSeek?
首先下载Ollama并安装,然后在终端运行命令启动DeepSeek。
DeepSeek支持哪些模型?
DeepSeek-R1模型提供1.5b、7b、8b、14b、32b、70b、671b等7个选择。
如何选择合适的DeepSeek模型?
根据内存选择,8G内存建议选择1.5b,16G内存建议选择7b或8b。
如何配置Chatbox以连接本地DeepSeek?
下载Chatbox并选择OLLAMA API,而非DeepSeek API进行配置。
Ollama的下载文件名是什么?
下载文件名为Ollama-darwin.zip。
DeepSeek的本地交互需要联网吗?
不需要联网,可以在本地与DeepSeek进行交互。
➡️