如何在企业内网部署 DeepSeek:离线安装教程

💡 原文中文,约2200字,阅读约需6分钟。
📝

内容提要

本文介绍了在企业内网离线部署 DeepSeek 的步骤,包括在联网电脑上安装 Ollama、下载 DeepSeek 模型、将模型上传至内网服务器、下载并安装 Ollama 离线包、配置服务并启动,最后加载和运行 DeepSeek 模型。

🎯

关键要点

  • 本文介绍了在企业内网离线部署 DeepSeek 的步骤。
  • DeepSeek 是一个强大的深度学习模型,适用于各种数据分析和处理任务。
  • 第一步是在公网电脑上安装 Ollama,下载适合系统的安装包。
  • 第二步是下载 DeepSeek 模型,使用命令 ollama pull deepseek-r1:32b。
  • 第三步是定位模型文件,找到 Ollama 的模型存放目录。
  • 第四步是将模型文件上传到企业内网的 Linux 服务器。
  • 第五步是下载 Ollama 离线包,并将其上传到企业内网服务器。
  • 第六步是在企业内网服务器上安装 Ollama,解压离线包。
  • 第七步是配置 Ollama 服务文件,并编辑服务内容。
  • 第八步是启动 Ollama 服务,使其生效并运行。
  • 第九步是加载 DeepSeek 模型,创建 Modelfile 文件。
  • 第十步是创建 DeepSeek 模型,使用命令 ollama create deepseek-r1:32 -f Modelfile。
  • 第十一步是运行模型,验证 DeepSeek 是否正常工作。

延伸问答

DeepSeek 是什么?

DeepSeek 是一个强大的深度学习模型,适用于各种数据分析和处理任务。

如何在公网电脑上安装 Ollama?

在公网电脑上访问 Ollama 官方网站,下载适合你系统的安装包并进行安装。

如何将 DeepSeek 模型上传到企业内网?

通过 SFTP 等方式将下载的模型文件(如 seek-r1-32b.gguf)上传到企业内网的 Linux 服务器。

在企业内网服务器上如何安装 Ollama?

在企业内网的 Linux 服务器上,执行命令 sudo tar -C /usr -xzf ollama-linux-amd64.tgz 来解压并安装 Ollama。

如何配置 Ollama 服务文件?

使用命令 vi /etc/systemd/system/ollama.service 编辑服务文件,并粘贴相应的配置内容。

如何验证 DeepSeek 模型是否正常工作?

执行命令 ollama run deepseek-r1:32b 来运行模型,验证其是否正常工作。

➡️

继续阅读