2026년 셀프 호스티드 AI: n8n 및 Ollama로 Linux 워크플로 자동화

발행: (2026년 2월 20일 오후 02:01 GMT+9)
4 분 소요
원문: Dev.to

Source: Dev.to

Ollama와 n8n을 결합하는 이유

  • 지연 시간 제로 – 외부 API 호출이 없습니다.
  • 프라이버시 – 로그, 비밀키, 프롬프트가 하드웨어를 떠나지 않습니다.
  • 구독료 없음 – 일회성 하드웨어 비용만 들고 월별 요금이 없습니다.
  • 전체 제어 – 원하는 모델을 자유롭게 실행할 수 있습니다(Llama 3.x, Mistral, DeepSeek 등).

지원 환경

  • 최신 Linux 배포판(권장: Ubuntu 24.04+ 또는 Debian 13).
  • Ollama – 로컬에서 LLM을 실행하는 가장 간단한 방법.
  • n8n – “셀프‑호스트용 Zapier”이며 AI 노드가 내장되어 있습니다.
  • Docker – 손쉬운 배포와 격리를 위해.

Ollama 설치

curl -fsSL https://ollama.com/install.sh | sh

설치를 확인하고 다목적 모델을 받아옵니다(예: Llama 3):

ollama pull llama3
ollama run llama3 "Hello, world!"

Docker Compose로 n8n 배포

docker-compose.yml 파일을 생성합니다:

version: '3.8'

services:
  n8n:
    image: n8nio/n8n:latest
    restart: always
    ports:
      - "5678:5678"
    environment:
      - N8N_HOST=localhost
      - N8N_PORT=5678
      - N8N_PROTOCOL=http
    volumes:
      - n8n_data:/home/node/.local/share/n8n
    # Allow n8n to reach Ollama on the host
    extra_hosts:
      - "host.docker.internal:host-gateway"

volumes:
  n8n_data:

스택을 시작합니다:

docker compose up -d

브라우저에서 n8n에 접속합니다.

Ollama 노드 추가

  1. 워크플로에 Ollama 노드를 추가합니다.
  2. 인증 정보를 설정합니다: URL을 http://host.docker.internal:11434 로 지정합니다.
  3. 사용할 모델을 선택합니다(예: llama3).
  4. 트리거(HTTP 요청, Cron 등)와 노드를 연결합니다.

예시 워크플로: 로그 요약 이메일

  1. 노드 1 – 명령 실행

    tail -n 100 /var/log/syslog
  2. 노드 2 – Ollama

    프롬프트: “이 로그를 요약하고 보안 경고나 치명적인 오류를 강조해 주세요.”

  3. 노드 3 – Email / Discord

    생성된 요약을 원하는 채널로 전송합니다.

성능 팁

  • GPU 가속 – Docker가 CUDA를 사용할 수 있도록 nvidia-container-toolkit을 설치합니다.
  • 모델 양자화 – 4‑bit 또는 6‑bit 양자화가 좋은 속도‑정확도 균형을 제공합니다.
  • VRAM 요구 사항
    • 7 B–8 B 모델: 약 8 GB VRAM이면 충분합니다.
    • 70 B 모델: 24 GB 이상의 VRAM(또는 Mac Studio와 같은 고성능 워크스테이션)이 필요합니다.

추가 자료

셀프‑호스팅 AI는 단순한 기술 선택이 아니라 도구에 대한 소유권을 되찾는 단계입니다. 이 스택으로 멋진 무언가를 만들었다면 댓글에 공유해 주세요.

행복한 해킹 되세요!

0 조회
Back to Blog

관련 글

더 보기 »

따뜻한 소개

소개 여러분, 안녕하세요! 여기서 진행되는 deep tech 토론에 매료되었습니다. 커뮤니티가 번창하는 모습을 보는 것은 정말 놀랍습니다. 프로젝트 개요 저는 열정적입니다...