2026년 셀프 호스티드 AI: n8n 및 Ollama로 Linux 워크플로 자동화
발행: (2026년 2월 20일 오후 02:01 GMT+9)
4 분 소요
원문: Dev.to
Source: Dev.to
Ollama와 n8n을 결합하는 이유
- 지연 시간 제로 – 외부 API 호출이 없습니다.
- 프라이버시 – 로그, 비밀키, 프롬프트가 하드웨어를 떠나지 않습니다.
- 구독료 없음 – 일회성 하드웨어 비용만 들고 월별 요금이 없습니다.
- 전체 제어 – 원하는 모델을 자유롭게 실행할 수 있습니다(Llama 3.x, Mistral, DeepSeek 등).
지원 환경
- 최신 Linux 배포판(권장: Ubuntu 24.04+ 또는 Debian 13).
- Ollama – 로컬에서 LLM을 실행하는 가장 간단한 방법.
- n8n – “셀프‑호스트용 Zapier”이며 AI 노드가 내장되어 있습니다.
- Docker – 손쉬운 배포와 격리를 위해.
Ollama 설치
curl -fsSL https://ollama.com/install.sh | sh
설치를 확인하고 다목적 모델을 받아옵니다(예: Llama 3):
ollama pull llama3
ollama run llama3 "Hello, world!"
Docker Compose로 n8n 배포
docker-compose.yml 파일을 생성합니다:
version: '3.8'
services:
n8n:
image: n8nio/n8n:latest
restart: always
ports:
- "5678:5678"
environment:
- N8N_HOST=localhost
- N8N_PORT=5678
- N8N_PROTOCOL=http
volumes:
- n8n_data:/home/node/.local/share/n8n
# Allow n8n to reach Ollama on the host
extra_hosts:
- "host.docker.internal:host-gateway"
volumes:
n8n_data:
스택을 시작합니다:
docker compose up -d
브라우저에서 n8n에 접속합니다.
Ollama 노드 추가
- 워크플로에 Ollama 노드를 추가합니다.
- 인증 정보를 설정합니다: URL을
http://host.docker.internal:11434로 지정합니다. - 사용할 모델을 선택합니다(예:
llama3). - 트리거(HTTP 요청, Cron 등)와 노드를 연결합니다.
예시 워크플로: 로그 요약 이메일
-
노드 1 – 명령 실행
tail -n 100 /var/log/syslog -
노드 2 – Ollama
프롬프트: “이 로그를 요약하고 보안 경고나 치명적인 오류를 강조해 주세요.”
-
노드 3 – Email / Discord
생성된 요약을 원하는 채널로 전송합니다.
성능 팁
- GPU 가속 – Docker가 CUDA를 사용할 수 있도록
nvidia-container-toolkit을 설치합니다. - 모델 양자화 – 4‑bit 또는 6‑bit 양자화가 좋은 속도‑정확도 균형을 제공합니다.
- VRAM 요구 사항
- 7 B–8 B 모델: 약 8 GB VRAM이면 충분합니다.
- 70 B 모델: 24 GB 이상의 VRAM(또는 Mac Studio와 같은 고성능 워크스테이션)이 필요합니다.
추가 자료
셀프‑호스팅 AI는 단순한 기술 선택이 아니라 도구에 대한 소유권을 되찾는 단계입니다. 이 스택으로 멋진 무언가를 만들었다면 댓글에 공유해 주세요.
행복한 해킹 되세요!