在 n8n 中使用 Ollama 的本地 LLM 模型

在 n8n 中使用 Ollama 的本地 LLM 模型

💡 原文中文,约5900字,阅读约需14分钟。
📝

内容提要

Oracle 提供的免费 VM.Standard.A1.Flex 实例适合轻型 LLM 模型和任务。通过 Docker 部署 n8n 服务,并结合 Ollama 运行本地模型,实现自动化工作流。配置 PostgreSQL 数据库和 Nginx 反向代理后,可以通过域名访问 n8n,创建管理员账号并激活功能。使用 Docker 部署 Ollama,下载 LLM 模型,最终实现将 RSS 摘要发送到 Telegram 的工作流。

🎯

关键要点

  • Oracle 免费 VM.Standard.A1.Flex 实例适合轻型 LLM 模型和任务,提供 4 个 ARM Ampere CPU、24GB RAM 和 200GB SSD。
  • 使用 Docker 部署 n8n 服务,并通过 Ollama 调用本地模型,实现自动化工作流。
  • n8n 是开源的自动化工作流平台,支持多种 AI 平台,适合没有 API 的用户使用本地 LLM 模型。
  • Ollama 是运行本地大语言模型的开源框架,部署简单,支持快速运行开源模型。
  • 配置 PostgreSQL 数据库和 Nginx 反向代理,以便通过域名访问 n8n,并创建管理员账号。
  • 在 docker-compose.yml 中配置 n8n 和 PostgreSQL 服务,确保数据卷和权限设置正确。
  • 通过 Nginx 配置反向代理,确保 n8n 服务可以通过 HTTPS 安全访问。
  • 将 Ollama 服务添加到同一 docker-compose.yml 中,以便 n8n 可以直接访问 Ollama 的 HTTP API。
  • 下载 LLM 模型并重启相关容器,配置 n8n 控制台以添加 Ollama 服务凭据。
  • 最终实现将 RSS 摘要发送到 Telegram 的工作流,考虑到硬件性能,建议选择 7b/8b 以下的模型。

延伸问答

如何在 n8n 中使用 Ollama 的本地 LLM 模型?

通过 Docker 部署 n8n 服务,并在同一 docker-compose.yml 中添加 Ollama 服务,确保它们共享网络,配置好后即可使用本地 LLM 模型。

Oracle 的 VM.Standard.A1.Flex 实例适合什么类型的任务?

Oracle 的 VM.Standard.A1.Flex 实例适合轻型 LLM 模型和任务,提供基本的计算资源。

如何配置 PostgreSQL 数据库以支持 n8n?

需要创建数据卷并设置权限,然后在 docker-compose.yml 中配置 PostgreSQL 服务,包括数据库用户名、密码和名称。

n8n 如何通过 Nginx 进行安全访问?

通过配置 Nginx 反向代理,将 HTTP 请求重定向到 HTTPS,并设置 SSL 证书以确保安全访问。

使用 Ollama 时,如何下载 LLM 模型?

可以通过命令 `sudo docker exec -it ollama bash ollama pull <模型名>` 下载所需的 LLM 模型。

在 n8n 中如何创建管理员账号?

通过访问 n8n 的 Web 服务,输入邮箱创建管理员账号,并会收到激活码以解锁社区版特性。

➡️

继续阅读