使用Ollama和open-webui本地部署DeepSeek

使用Ollama和open-webui本地部署DeepSeek

💡 原文中文,约3800字,阅读约需9分钟。
📝

内容提要

自春节以来,DeepSeek人气高涨,官网常出现“服务器繁忙”。为保障数据安全,可通过Ollama和Open-WebUI进行本地部署。Ollama支持多模型,使用简单,但需注意网络和权限设置;Open WebUI可实现网页聊天,需配置管理员账号。本文介绍了部署过程及常见问题的解决方案。

🎯

关键要点

  • 自春节以来,DeepSeek人气高涨,官网常出现“服务器繁忙”。
  • 可以通过Ollama和Open-WebUI进行本地部署,保障数据安全和隐私。
  • Ollama是一个开源免费的大语言模型服务工具,支持多平台和多模型。
  • 安装Ollama需要注意网络环境,可能需要使用代理下载。
  • 运行DeepSeek模型需要满足硬件要求,用户可根据自身情况选择模型。
  • Ollama默认监听127.0.0.1,需修改设置以允许其他机器连接。
  • 搭建Open WebUI可以实现网页聊天,支持多人和多模型使用。
  • Open WebUI的首次运行可能较慢,需耐心等待。
  • 建议在国内服务器上关闭OpenAI的API以避免空白页面问题。
  • 搭建DeepSeek旨在保护数据隐私和安全,未接入联网搜索功能。
➡️

继续阅读