2026 年自托管 AI:使用 n8n 与 Ollama 自动化你的 Linux 工作流
发布: (2026年2月20日 GMT+8 13:01)
3 分钟阅读
原文: Dev.to
Source: Dev.to
为什么要将 Ollama 与 n8n 结合?
- 零延迟 – 无需外部 API 往返。
- 隐私 – 日志、密钥和提示永不离开你的硬件。
- 无需订阅 – 一次性硬件费用,零月费。
- 完全控制 – 可运行任意模型(Llama 3.x、Mistral、DeepSeek 等)。
支持的环境
- 任意现代 Linux 发行版(推荐 Ubuntu 24.04+ 或 Debian 13)。
- Ollama – 本地运行 LLM 的最简方式。
- n8n – “自托管版 Zapier”,内置 AI 节点。
- Docker – 便于部署和隔离。
安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
验证安装并拉取一个通用模型(例如 Llama 3):
ollama pull llama3
ollama run llama3 "Hello, world!"
使用 Docker Compose 部署 n8n
创建 docker-compose.yml 文件:
version: '3.8'
services:
n8n:
image: n8nio/n8n:latest
restart: always
ports:
- "5678:5678"
environment:
- N8N_HOST=localhost
- N8N_PORT=5678
- N8N_PROTOCOL=http
volumes:
- n8n_data:/home/node/.local/share/n8n
# Allow n8n to reach Ollama on the host
extra_hosts:
- "host.docker.internal:host-gateway"
volumes:
n8n_data:
启动整个栈:
docker compose up -d
在浏览器中打开 n8n(地址为 http://localhost:5678)。
添加 Ollama 节点
- 在工作流中添加 Ollama 节点。
- 配置凭证:将 URL 设置为
http://host.docker.internal:11434。 - 选择你的模型(例如
llama3)。 - 将节点连接到触发器(HTTP 请求、Cron 等)。
示例工作流:日志摘要邮件
-
节点 1 – 执行命令
tail -n 100 /var/log/syslog -
节点 2 – Ollama
提示语:“Summarize these logs and highlight any security warnings or critical errors.”(请将日志进行摘要,并标出任何安全警告或关键错误。)
-
节点 3 – Email / Discord
将生成的摘要发送到你喜欢的渠道。
性能优化技巧
- GPU 加速 – 安装
nvidia-container-toolkit,让 Docker 能使用 CUDA。 - 模型量化 – 4‑bit 或 6‑bit 量化在速度与精度之间提供良好平衡。
- 显存需求
- 7 B–8 B 模型:约 8 GB 显存即可。
- 70 B 模型:需要 24 GB 以上显存(或高端工作站,如 Mac Studio)。
进一步阅读
自托管 AI 不仅是技术选择,更是重新掌控工具所有权的一步。如果你用这套技术栈构建了有趣的项目,欢迎在评论区分享。
祝玩得开心!