在 n8n 中使用 Ollama 的本地 LLM 模型

在 n8n 中使用 Ollama 的本地 LLM 模型

💡 原文中文,约5900字,阅读约需14分钟。
📝

内容提要

Oracle 提供的免费 VM.Standard.A1.Flex 实例适合轻型 LLM 模型和任务。通过 Docker 部署 n8n 服务,并结合 Ollama 运行本地模型,实现自动化工作流。配置 PostgreSQL 数据库和 Nginx 反向代理后,可以通过域名访问 n8n,创建管理员账号并激活功能。使用 Docker 部署 Ollama,下载 LLM 模型,最终实现将 RSS 摘要发送到 Telegram 的工作流。

🎯

关键要点

  • Oracle 免费 VM.Standard.A1.Flex 实例适合轻型 LLM 模型和任务,提供 4 个 ARM Ampere CPU、24GB RAM 和 200GB SSD。
  • 使用 Docker 部署 n8n 服务,并通过 Ollama 调用本地模型,实现自动化工作流。
  • n8n 是开源的自动化工作流平台,支持多种 AI 平台,适合没有 API 的用户使用本地 LLM 模型。
  • Ollama 是运行本地大语言模型的开源框架,部署简单,支持快速运行开源模型。
  • 配置 PostgreSQL 数据库和 Nginx 反向代理,以便通过域名访问 n8n,并创建管理员账号。
  • 在 docker-compose.yml 中配置 n8n 和 PostgreSQL 服务,确保数据卷和权限设置正确。
  • 通过 Nginx 配置反向代理,确保 n8n 服务可以通过 HTTPS 安全访问。
  • 将 Ollama 服务添加到同一 docker-compose.yml 中,以便 n8n 可以直接访问 Ollama 的 HTTP API。
  • 下载 LLM 模型并重启相关容器,配置 n8n 控制台以添加 Ollama 服务凭据。
  • 最终实现将 RSS 摘要发送到 Telegram 的工作流,考虑到硬件性能,建议选择 7b/8b 以下的模型。
➡️

继续阅读