使用Ollama和open-webui本地部署DeepSeek

使用Ollama和open-webui本地部署DeepSeek

💡 原文中文,约3800字,阅读约需9分钟。
📝

内容提要

自春节以来,DeepSeek人气高涨,官网常出现“服务器繁忙”。为保障数据安全,可通过Ollama和Open-WebUI进行本地部署。Ollama支持多模型,使用简单,但需注意网络和权限设置;Open WebUI可实现网页聊天,需配置管理员账号。本文介绍了部署过程及常见问题的解决方案。

🎯

关键要点

  • 自春节以来,DeepSeek人气高涨,官网常出现“服务器繁忙”。
  • 可以通过Ollama和Open-WebUI进行本地部署,保障数据安全和隐私。
  • Ollama是一个开源免费的大语言模型服务工具,支持多平台和多模型。
  • 安装Ollama需要注意网络环境,可能需要使用代理下载。
  • 运行DeepSeek模型需要满足硬件要求,用户可根据自身情况选择模型。
  • Ollama默认监听127.0.0.1,需修改设置以允许其他机器连接。
  • 搭建Open WebUI可以实现网页聊天,支持多人和多模型使用。
  • Open WebUI的首次运行可能较慢,需耐心等待。
  • 建议在国内服务器上关闭OpenAI的API以避免空白页面问题。
  • 搭建DeepSeek旨在保护数据隐私和安全,未接入联网搜索功能。

延伸问答

如何通过Ollama本地部署DeepSeek?

可以通过运行命令 'curl -fsSL https://ollama.com/install.sh | sh' 安装Ollama,然后使用 'ollama run deepseek-r1:70b' 启动DeepSeek模型。

Ollama的默认监听地址是什么?

Ollama默认监听127.0.0.1,意味着只能本机使用。

如何搭建Open WebUI进行网页聊天?

可以通过命令 'docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main' 来搭建Open WebUI。

在国内使用Ollama时需要注意什么?

建议在国内服务器上关闭OpenAI的API,以避免出现空白页面的问题。

DeepSeek模型的硬件要求是什么?

运行DeepSeek模型需要满足特定的硬件要求,具体要求可以根据所选模型查看。

如何修改Ollama的监听地址以允许远程访问?

需要修改启动脚本,将环境变量设置为 'OLLAMA_HOST=0.0.0.0:11434',以允许其他机器连接。

➡️

继续阅读