2026년 자체 호스팅 AI: n8n과 Ollama로 Linux 워크플로 자동화
Source: Dev.to
Ollama와 n8n을 결합하는 이유
- 제로 레이턴시 – 외부 API 왕복 호출이 없습니다.
- 프라이버시 – 로그, 비밀키, 프롬프트가 하드웨어를 떠나지 않습니다.
- 구독 없음 – 일회성 하드웨어 비용만 들고, 월 구독료가 없습니다.
- 완전한 제어 – 원하는 모델(Llama 3.x, Mistral, DeepSeek 등)을 실행할 수 있습니다.
지원 환경
- 최신 Linux 배포판(Ubuntu 24.04+ 또는 Debian 13 권장)
- Ollama – 로컬에서 LLM을 가장 간단히 실행하는 방법
- n8n – “셀프‑호스트용 Zapier”이며 AI 노드가 내장돼 있습니다
- Docker – 손쉬운 배포와 격리를 위해
Ollama 설치
curl -fsSL https://ollama.com/install.sh | sh
설치를 확인하고 다목적 모델을 받아옵니다(예: Llama 3):
ollama pull llama3
ollama run llama3 "Hello, world!"
Docker Compose로 n8n 배포
docker-compose.yml 파일을 생성합니다:
version: '3.8'
services:
n8n:
image: n8nio/n8n:latest
restart: always
ports:
- "5678:5678"
environment:
- N8N_HOST=localhost
- N8N_PORT=5678
- N8N_PROTOCOL=http
volumes:
- n8n_data:/home/node/.local/share/n8n
# Allow n8n to reach Ollama on the host
extra_hosts:
- "host.docker.internal:host-gateway"
volumes:
n8n_data:
스택을 시작합니다:
docker compose up -d
n8n에 접속합니다 .
Ollama 노드 추가하기
- 워크플로에 Ollama 노드를 추가합니다.
- 인증 정보를 설정합니다: URL을
http://host.docker.internal:11434로 지정합니다. - 모델을 선택합니다(예:
llama3). - 노드를 트리거(HTTP 요청, Cron 등)와 연결합니다.
예시 워크플로: 로그 요약 이메일
-
노드 1 – 명령 실행
tail -n 100 /var/log/syslog -
노드 2 – Ollama
프롬프트: “Summarize these logs and highlight any security warnings or critical errors.”
-
노드 3 – Email / Discord
생성된 요약을 원하는 채널로 전송합니다.
성능 팁
- GPU 가속 – Docker가 CUDA를 사용할 수 있도록
nvidia-container-toolkit을 설치합니다. - 모델 양자화 – 4‑bit 또는 6‑bit 양자화가 속도와 정확도 사이의 좋은 균형을 제공합니다.
- VRAM 요구 사항
- 7 B–8 B 모델: 약 8 GB VRAM이면 충분합니다.
- 70 B 모델: 24 GB 이상의 VRAM(또는 Mac Studio와 같은 고성능 워크스테이션) 필요합니다.
추가 자료
셀프‑호스팅 AI는 단순히 기술적인 선택이 아니라, 도구에 대한 소유권을 되찾는 단계입니다. 이 스택으로 멋진 무언가를 만들었다면 댓글에 공유해 주세요.
행복한 해킹 되세요!