💡
原文中文,约5900字,阅读约需14分钟。
📝
内容提要
Oracle 提供的免费 VM.Standard.A1.Flex 实例适合轻型 LLM 模型和任务。通过 Docker 部署 n8n 服务,并结合 Ollama 运行本地模型,实现自动化工作流。配置 PostgreSQL 数据库和 Nginx 反向代理后,可以通过域名访问 n8n,创建管理员账号并激活功能。使用 Docker 部署 Ollama,下载 LLM 模型,最终实现将 RSS 摘要发送到 Telegram 的工作流。
🎯
关键要点
- Oracle 免费 VM.Standard.A1.Flex 实例适合轻型 LLM 模型和任务,提供 4 个 ARM Ampere CPU、24GB RAM 和 200GB SSD。
- 使用 Docker 部署 n8n 服务,并通过 Ollama 调用本地模型,实现自动化工作流。
- n8n 是开源的自动化工作流平台,支持多种 AI 平台,适合没有 API 的用户使用本地 LLM 模型。
- Ollama 是运行本地大语言模型的开源框架,部署简单,支持快速运行开源模型。
- 配置 PostgreSQL 数据库和 Nginx 反向代理,以便通过域名访问 n8n,并创建管理员账号。
- 在 docker-compose.yml 中配置 n8n 和 PostgreSQL 服务,确保数据卷和权限设置正确。
- 通过 Nginx 配置反向代理,确保 n8n 服务可以通过 HTTPS 安全访问。
- 将 Ollama 服务添加到同一 docker-compose.yml 中,以便 n8n 可以直接访问 Ollama 的 HTTP API。
- 下载 LLM 模型并重启相关容器,配置 n8n 控制台以添加 Ollama 服务凭据。
- 最终实现将 RSS 摘要发送到 Telegram 的工作流,考虑到硬件性能,建议选择 7b/8b 以下的模型。
➡️