2026 年自托管 AI:使用 n8n 与 Ollama 自动化你的 Linux 工作流

发布: (2026年2月20日 GMT+8 13:01)
3 分钟阅读
原文: Dev.to

Source: Dev.to

为什么要将 Ollama 与 n8n 结合?

  • 零延迟 – 无需外部 API 往返。
  • 隐私 – 日志、密钥和提示永不离开你的硬件。
  • 无需订阅 – 一次性硬件费用,零月费。
  • 完全控制 – 可运行任意模型(Llama 3.x、Mistral、DeepSeek 等)。

支持的环境

  • 任意现代 Linux 发行版(推荐 Ubuntu 24.04+ 或 Debian 13)。
  • Ollama – 本地运行 LLM 的最简方式。
  • n8n – “自托管版 Zapier”,内置 AI 节点。
  • Docker – 便于部署和隔离。

安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

验证安装并拉取一个通用模型(例如 Llama 3):

ollama pull llama3
ollama run llama3 "Hello, world!"

使用 Docker Compose 部署 n8n

创建 docker-compose.yml 文件:

version: '3.8'

services:
  n8n:
    image: n8nio/n8n:latest
    restart: always
    ports:
      - "5678:5678"
    environment:
      - N8N_HOST=localhost
      - N8N_PORT=5678
      - N8N_PROTOCOL=http
    volumes:
      - n8n_data:/home/node/.local/share/n8n
    # Allow n8n to reach Ollama on the host
    extra_hosts:
      - "host.docker.internal:host-gateway"

volumes:
  n8n_data:

启动整个栈:

docker compose up -d

在浏览器中打开 n8n(地址为 http://localhost:5678)。

添加 Ollama 节点

  1. 在工作流中添加 Ollama 节点。
  2. 配置凭证:将 URL 设置为 http://host.docker.internal:11434
  3. 选择你的模型(例如 llama3)。
  4. 将节点连接到触发器(HTTP 请求、Cron 等)。

示例工作流:日志摘要邮件

  1. 节点 1 – 执行命令

    tail -n 100 /var/log/syslog
  2. 节点 2 – Ollama

    提示语:“Summarize these logs and highlight any security warnings or critical errors.”(请将日志进行摘要,并标出任何安全警告或关键错误。)

  3. 节点 3 – Email / Discord

    将生成的摘要发送到你喜欢的渠道。

性能优化技巧

  • GPU 加速 – 安装 nvidia-container-toolkit,让 Docker 能使用 CUDA。
  • 模型量化 – 4‑bit 或 6‑bit 量化在速度与精度之间提供良好平衡。
  • 显存需求
    • 7 B–8 B 模型:约 8 GB 显存即可。
    • 70 B 模型:需要 24 GB 以上显存(或高端工作站,如 Mac Studio)。

进一步阅读

自托管 AI 不仅是技术选择,更是重新掌控工具所有权的一步。如果你用这套技术栈构建了有趣的项目,欢迎在评论区分享。

祝玩得开心!

0 浏览
Back to Blog

相关文章

阅读更多 »