如何在企业内网部署 DeepSeek:离线安装教程
💡
原文中文,约2200字,阅读约需6分钟。
📝
内容提要
本文介绍了在企业内网离线部署 DeepSeek 的步骤,包括在联网电脑上安装 Ollama、下载 DeepSeek 模型、将模型上传至内网服务器、下载并安装 Ollama 离线包、配置服务并启动,最后加载和运行 DeepSeek 模型。
🎯
关键要点
- 本文介绍了在企业内网离线部署 DeepSeek 的步骤。
- DeepSeek 是一个强大的深度学习模型,适用于各种数据分析和处理任务。
- 第一步是在公网电脑上安装 Ollama,下载适合系统的安装包。
- 第二步是下载 DeepSeek 模型,使用命令 ollama pull deepseek-r1:32b。
- 第三步是定位模型文件,找到 Ollama 的模型存放目录。
- 第四步是将模型文件上传到企业内网的 Linux 服务器。
- 第五步是下载 Ollama 离线包,并将其上传到企业内网服务器。
- 第六步是在企业内网服务器上安装 Ollama,解压离线包。
- 第七步是配置 Ollama 服务文件,并编辑服务内容。
- 第八步是启动 Ollama 服务,使其生效并运行。
- 第九步是加载 DeepSeek 模型,创建 Modelfile 文件。
- 第十步是创建 DeepSeek 模型,使用命令 ollama create deepseek-r1:32 -f Modelfile。
- 第十一步是运行模型,验证 DeepSeek 是否正常工作。
❓
延伸问答
DeepSeek 是什么?
DeepSeek 是一个强大的深度学习模型,适用于各种数据分析和处理任务。
如何在公网电脑上安装 Ollama?
在公网电脑上访问 Ollama 官方网站,下载适合你系统的安装包并进行安装。
如何将 DeepSeek 模型上传到企业内网?
通过 SFTP 等方式将下载的模型文件(如 seek-r1-32b.gguf)上传到企业内网的 Linux 服务器。
在企业内网服务器上如何安装 Ollama?
在企业内网的 Linux 服务器上,执行命令 sudo tar -C /usr -xzf ollama-linux-amd64.tgz 来解压并安装 Ollama。
如何配置 Ollama 服务文件?
使用命令 vi /etc/systemd/system/ollama.service 编辑服务文件,并粘贴相应的配置内容。
如何验证 DeepSeek 模型是否正常工作?
执行命令 ollama run deepseek-r1:32b 来运行模型,验证其是否正常工作。
➡️