셀프 호스팅으로 나만의 AI 에이전트 팩토리 구축: Linux-First Flowise 가이드
Source: Dev.to
Overview
AI 환경이 변하고 있습니다. OpenAI와 Claude 같은 클라우드‑호스팅 솔루션은 편리하지만, 개발자와 자동화 애호가에게 진정한 힘은 주권에 있습니다. 데이터 프라이버시, 지연 시간, 요청당 비용을 피하고 싶다면 자체 호스팅이 정답입니다.
오늘은 FlowiseAI를 살펴보겠습니다—오픈소스 저코드 플랫폼으로, 복잡한 LLM 체인과 AI 에이전트를 시각적으로 구축할 수 있습니다. Docker Compose를 이용해 Linux 서버에 배포하고 로컬 또는 원격 모델에 연결해 보겠습니다.
Why Flowise?
전통적인 자동화 도구와 달리 Flowise는 LangChain 생태계에 특화되어 있습니다. 다음을 할 수 있습니다:
- 드래그‑앤‑드롭으로 복잡한 RAG (Retrieval Augmented Generation) 파이프라인을 구성합니다.
- 100개 이상의 도구(Google Search, GitHub, Slack 등)와 통합합니다.
- 깨끗한 API 또는 채팅 위젯을 통해 에이전트를 노출합니다.
Prerequisites
- Linux VPS 또는 로컬 머신 (Ubuntu 22.04+ 또는 Debian 12 권장).
- Docker 및 Docker Compose 설치.
- 최소 4 GB RAM (AI 워크플로는 메모리를 많이 사용할 수 있습니다).
Step 1: Preparing the Workspace
Flowise 인스턴스를 위한 전용 디렉터리를 생성합니다:
mkdir ~/flowise-server && cd ~/flowise-server
Step 2: Creating the Docker Compose Configuration
소규모 설정에서는 간단한 SQLite 데이터베이스로 Flowise를 실행할 수 있습니다. docker-compose.yml 파일을 만듭니다:
services:
flowise:
image: flowiseai/flowise:latest
restart: always
environment:
- PORT=3000
- DATABASE_PATH=/root/.flowise
- APIKEY_PATH=/root/.flowise
- SECRETKEY_PATH=/root/.flowise
- LOG_PATH=/root/.flowise/logs
- BLOB_STORAGE_PATH=/root/.flowise/storage
ports:
- "3000:3000"
volumes:
- ~/.flowise:/root/.flowise
command: /bin/sh -c "sleep 3; flowise start"
Critical Environment Variables
PORT: Flowise가 내부 및 외부에서 청취할 포트.DATABASE_PATH: 흐름과 인증 정보가 저장되는 위치. 백업을 꼭 해두세요!
Step 3: Deployment
컨테이너를 시작합니다:
docker compose up -d
실행 여부를 확인합니다:
docker compose ps
이제 http://your-ip:3000에서 대시보드에 접근할 수 있습니다.
Step 4: Building Your First Agent (Hands‑On)
- 대시보드에서 + Create New를 클릭합니다.
- Chat Model 노드(예: ChatOpenAI 또는 로컬 Ollama 노드)를 추가합니다.
- Tool Agent 노드를 추가합니다.
- Google Search Tool을 추가합니다(SerpApi 키 필요).
- 노드들을 연결합니다.
Tool Agent는 뇌 역할을 하며, 웹에서 실시간 데이터를 가져와야 할 때와 내부 지식만으로 답변할 때를 판단합니다.
Security Tip: Reverse Proxy
Flowise를 인터넷에 노출한다면 포트 3000을 열어두지 마세요. Nginx 또는 Caddy와 Basic Auth 혹은 SSO 공급자를 사용합니다.
# SSL을 위한 Caddyfile 예시
flowise.yourdomain.com {
reverse_proxy localhost:3000
}