Homelab AI 스택 2026 — 무엇을 실행하고 어떤 순서로
Source: Dev.to
TL;DR
다른 사람 서버에서 AI 뇌를 구동하는 일을 그만두세요.
제가 홈랩에서 직접 운영하는 정확한 스택을, 실제 배포 순서대로 정리했습니다.
모델이 임계점을 넘었습니다: qwen2.5:32b 를 괜찮은 머신에서 로컬로 실행하면 대부분의 개발자 작업에서 GPT‑3.5를 능가합니다. 무료이고, 프라이빗이며, 오프라인이며, 토큰 하나하나를 직접 소유합니다.
AI 스택을 직접 호스팅하는 것이 이제는 nerd flex가 아니라 좋은 엔지니어링 위생입니다. 다른 사람 노트북에서 프로덕션을 돌리지 않듯, 그들의 서버에서 여러분의 추론을 돌릴 이유가 있나요?
1. Reverse proxy & TLS (Traefik)
인터넷에 노출되기 전에 먼저 Traefik을 설정하세요. 자동 TLS, 리버스 프록시, 단일 진입점을 제공합니다.
docker run -d \
-p 80:80 -p 443:443 \
-v /var/run/docker.sock:/var/run/docker.sock \
traefik:v3.0
이 단계는 절대 건너뛰지 마세요. 나머지 모든 서비스는 Traefik 뒤에 위치합니다.
2. Install Ollama
curl -fsSL https://ollama.ai/install.sh | sh
첫 모델을 실행해 보세요:
ollama run qwen2.5:32b
모델 이름은 자유롭게 교체할 수 있습니다(예: gemma3, mistral, phi4, llama3.2). 모두 무료이며 API 키가 필요 없습니다.
Minimum viable hardware
| Model size | Recommended RAM |
|---|---|
| 7 B | 16 GB |
| 32 B | 32 GB+ |
Apple Silicon M‑series가 이 작업을 잘 처리합니다.
3. Chat‑style UI (Open WebUI)
Ollama에 직접 연결되는 ChatGPT 스타일 인터페이스로, 여러 모델, 대화 기록, 문서 업로드를 지원합니다.
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
ghcr.io/open-webui/open-webui:main
여기서 로컬 AI가 장난감에서 워크플로우 도구로 전환됩니다.
4. Automation (n8n)
LLM을 이메일, 웹훅, API, 데이터베이스, 스마트 홈 등 모든 것과 연결하세요.
docker run -d -p 5678:5678 \
-v n8n_data:/home/node/.n8n \
n8nio/n8n
예시 워크플로우
- 이메일이 도착 → n8n이 Ollama에 전달합니다.
- Ollama가 분류하고 답변 초안을 작성합니다.
- 사용자가 초안을 검토합니다.
클라우드 없이 완전한 프라이버시를 보장합니다.
5. Unified OpenAI‑compatible endpoint (LiteLLM)
여러 모델을 보유하게 되면, LiteLLM을 통해 단일 OpenAI‑호환 엔드포인트를 제공하여 애플리케이션이 어떤 백엔드를 사용하든 신경 쓰지 않게 할 수 있습니다.
model_list:
- model_name: local-fast
litellm_params:
model: ollama/qwen2.5:7b
api_base: http://localhost:11434
- model_name: local-heavy
litellm_params:
model: ollama/qwen2.5:32b
api_base: http://localhost:11434
6. What the stack enables
- 누구든
ollama run llama3.2를 실행하고 질문을 할 수 있습니다. - 진정한 힘은 홈랩이 자율적으로 작동하면서—이메일을 읽고, 서비스를 모니터링하고, 매일 아침 브리핑을 제공—네트워크를 떠나는 데이터가 전혀 없는 상황에서 나타납니다.
이것이 여러분을 그 단계로 이끄는 스택입니다.
Signal은 AI 도구, 자동화, 홈랩 설정을 다룹니다—실제 하드웨어에서 테스트된, 실제로 작동하는 내용만을 제공합니다. 과장은 없습니다.