OpenClaw 퀵스타트: Docker로 설치 (Ollama GPU 또는 Claude + CPU)
Source: Dev.to
소개
OpenClaw은 Ollama와 같은 로컬 LLM 런타임이나 Anthropic API를 통한 Claude Sonnet 4.6 같은 클라우드 기반 모델로 실행할 수 있는 자체 호스팅 AI 어시스턴트입니다. 이 빠른 시작 가이드는 Docker로 OpenClaw을 배포하고, GPU가 장착된 로컬 모델 또는 CPU 전용 클라우드 모델을 구성한 뒤, 어시스턴스가 엔드‑투‑엔드로 정상 작동하는지 확인하는 방법을 보여줍니다.
목표는 간단합니다:
- OpenClaw을 실행한다.
- 요청을 보낸다.
- 정상 동작을 확인한다.
이는 프로덕션 환경을 위한 하드닝 가이드가 아닙니다.
선택지는 두 가지입니다:
- 경로 A – Ollama를 이용한 로컬 GPU (호환 가능한 GPU가 있는 경우 권장)
- 경로 B – Anthropic API를 통한 Claude Sonnet 4.6 사용, CPU 전용
두 경로 모두 동일한 핵심 설치 단계를 공유합니다.
Prerequisites
| Requirement | Details |
|---|---|
| Git | git 명령줄 |
| Docker Desktop (or Docker + Docker Compose) | Docker Engine ≥ 20.10 |
| Terminal | Bash, Zsh, PowerShell 등 |
| GPU (optional) | NVIDIA 또는 AMD, 드라이버가 설치된 경우 |
| Ollama (optional) | Path A를 사용할 경우 호스트에 설치 |
| Anthropic API key | Path B에 필요 |
Source:
설치
# Clone the repository
git clone https://github.com/openclaw/openclaw.git
cd openclaw
# Copy the example environment file
cp .env.example .env
.env 파일을 편집합니다(필요한 변수에 대한 자세한 내용은 아래 섹션을 참고하세요).
컨테이너를 시작합니다:
docker compose up -d
컨테이너가 실행 중인지 확인합니다:
docker ps
이 시점에서 OpenClaw가 실행되고 있지만 아직 LLM 제공자와 연결되지 않았습니다.
LLM 공급자 구성
경로 A – Ollama를 이용한 로컬 GPU
-
Ollama 설치 (이미 설치되어 있지 않은 경우):
curl -fsSL https://ollama.com/install.sh | sh -
모델을 가져와 테스트 (예:
llama3):ollama pull llama3 ollama run llama3 # 응답이 반환되어야 함 -
.env업데이트:LLM_PROVIDER=ollama OLLAMA_BASE_URL=http://host.docker.internal:11434 OLLAMA_MODEL=llama3 -
컨테이너 재시작:
docker compose restart
OpenClaw는 이제 로컬 Ollama 인스턴스로 추론 요청을 라우팅합니다.
Ollama 설치, 모델 저장 위치 및 CLI 명령에 대한 자세한 내용은 공식 문서를 참고하세요:
[Install Ollama and Configure Models Location]
[Ollama CLI Cheatsheet (2026 update)]
경로 B – Claude Sonnet 4.6을 이용한 CPU 전용
-
Anthropic 콘솔에서 Anthropic API 키를 발급받습니다.
-
.env업데이트:LLM_PROVIDER=anthropic ANTHROPIC_API_KEY=your_api_key_here ANTHROPIC_MODEL=claude-sonnet-4-6 -
컨테이너 재시작:
docker compose restart
OpenClaw는 이제 GPU가 없는 머신에서도 잘 동작하는 Claude Sonnet 4.6을 사용해 추론을 수행합니다.
설정 확인
상태 확인
curl http://localhost:3000/health
건강한 상태를 나타내는 JSON 응답을 받아야 합니다.
간단한 채팅 테스트
curl -X POST http://localhost:3000/chat \
-H "Content-Type: application/json" \
-d '{"message": "Explain what OpenClaw does in simple terms."}'
구조화된 응답이 반환되면 요청‑응답 루프가 정상적으로 작동하고 있음을 확인할 수 있습니다.
디버깅 팁
-
컨테이너 로그 확인
docker compose logs -
Ollama가 실행 중인지 확인 (GPU 경로)
ollama list -
환경 변수 확인 –
OLLAMA_BASE_URL또는ANTHROPIC_API_KEY가 올바른지 확인합니다. -
GPU가 사용되지 않나요?
- 호스트에 GPU 드라이버가 설치되어 있는지 확인합니다.
- Docker에 GPU 접근 권한이 활성화되어 있는지 확인합니다 (예:
--gpus all플래그 또는 Docker Desktop GPU 설정).
다음 단계
- 메시징 플랫폼(Slack, Discord 등) 연결하기.
- 문서 검색 및 지식 베이스 활성화.
- 라우팅 전략 및 도구 사용 실험.
- 관측성, 메트릭, 로깅 추가.
- 선택한 LLM 제공업체의 성능 및 비용 설정 조정.
OpenClaw를 운영 상태로 만드는 것이 첫 번째 단계이며, 여기서부터 더 풍부한 아키텍처 기능을 탐색하고 정교한 AI‑구동 워크플로를 구축할 수 있습니다.