OpenClaw 퀵스타트: Docker로 설치 (Ollama GPU 또는 Claude + CPU)

발행: (2026년 3월 3일 오후 08:41 GMT+9)
6 분 소요
원문: Dev.to

Source: Dev.to

소개

OpenClaw은 Ollama와 같은 로컬 LLM 런타임이나 Anthropic API를 통한 Claude Sonnet 4.6 같은 클라우드 기반 모델로 실행할 수 있는 자체 호스팅 AI 어시스턴트입니다. 이 빠른 시작 가이드는 Docker로 OpenClaw을 배포하고, GPU가 장착된 로컬 모델 또는 CPU 전용 클라우드 모델을 구성한 뒤, 어시스턴스가 엔드‑투‑엔드로 정상 작동하는지 확인하는 방법을 보여줍니다.

목표는 간단합니다:

  1. OpenClaw을 실행한다.
  2. 요청을 보낸다.
  3. 정상 동작을 확인한다.

이는 프로덕션 환경을 위한 하드닝 가이드가 아닙니다.

선택지는 두 가지입니다:

  • 경로 A – Ollama를 이용한 로컬 GPU (호환 가능한 GPU가 있는 경우 권장)
  • 경로 B – Anthropic API를 통한 Claude Sonnet 4.6 사용, CPU 전용

두 경로 모두 동일한 핵심 설치 단계를 공유합니다.

Prerequisites

RequirementDetails
Gitgit 명령줄
Docker Desktop (or Docker + Docker Compose)Docker Engine ≥ 20.10
TerminalBash, Zsh, PowerShell 등
GPU (optional)NVIDIA 또는 AMD, 드라이버가 설치된 경우
Ollama (optional)Path A를 사용할 경우 호스트에 설치
Anthropic API keyPath B에 필요

Source:

설치

# Clone the repository
git clone https://github.com/openclaw/openclaw.git
cd openclaw

# Copy the example environment file
cp .env.example .env

.env 파일을 편집합니다(필요한 변수에 대한 자세한 내용은 아래 섹션을 참고하세요).

컨테이너를 시작합니다:

docker compose up -d

컨테이너가 실행 중인지 확인합니다:

docker ps

이 시점에서 OpenClaw가 실행되고 있지만 아직 LLM 제공자와 연결되지 않았습니다.

LLM 공급자 구성

경로 A – Ollama를 이용한 로컬 GPU

  1. Ollama 설치 (이미 설치되어 있지 않은 경우):

    curl -fsSL https://ollama.com/install.sh | sh
  2. 모델을 가져와 테스트 (예: llama3):

    ollama pull llama3
    ollama run llama3   # 응답이 반환되어야 함
  3. .env 업데이트:

    LLM_PROVIDER=ollama
    OLLAMA_BASE_URL=http://host.docker.internal:11434
    OLLAMA_MODEL=llama3
  4. 컨테이너 재시작:

    docker compose restart

OpenClaw는 이제 로컬 Ollama 인스턴스로 추론 요청을 라우팅합니다.

Ollama 설치, 모델 저장 위치 및 CLI 명령에 대한 자세한 내용은 공식 문서를 참고하세요:
[Install Ollama and Configure Models Location]
[Ollama CLI Cheatsheet (2026 update)]

경로 B – Claude Sonnet 4.6을 이용한 CPU 전용

  1. Anthropic 콘솔에서 Anthropic API 키를 발급받습니다.

  2. .env 업데이트:

    LLM_PROVIDER=anthropic
    ANTHROPIC_API_KEY=your_api_key_here
    ANTHROPIC_MODEL=claude-sonnet-4-6
  3. 컨테이너 재시작:

    docker compose restart

OpenClaw는 이제 GPU가 없는 머신에서도 잘 동작하는 Claude Sonnet 4.6을 사용해 추론을 수행합니다.

설정 확인

상태 확인

curl http://localhost:3000/health

건강한 상태를 나타내는 JSON 응답을 받아야 합니다.

간단한 채팅 테스트

curl -X POST http://localhost:3000/chat \
     -H "Content-Type: application/json" \
     -d '{"message": "Explain what OpenClaw does in simple terms."}'

구조화된 응답이 반환되면 요청‑응답 루프가 정상적으로 작동하고 있음을 확인할 수 있습니다.

디버깅 팁

  • 컨테이너 로그 확인

    docker compose logs
  • Ollama가 실행 중인지 확인 (GPU 경로)

    ollama list
  • 환경 변수 확인OLLAMA_BASE_URL 또는 ANTHROPIC_API_KEY가 올바른지 확인합니다.

  • GPU가 사용되지 않나요?

    • 호스트에 GPU 드라이버가 설치되어 있는지 확인합니다.
    • Docker에 GPU 접근 권한이 활성화되어 있는지 확인합니다 (예: --gpus all 플래그 또는 Docker Desktop GPU 설정).

다음 단계

  • 메시징 플랫폼(Slack, Discord 등) 연결하기.
  • 문서 검색 및 지식 베이스 활성화.
  • 라우팅 전략 및 도구 사용 실험.
  • 관측성, 메트릭, 로깅 추가.
  • 선택한 LLM 제공업체의 성능 및 비용 설정 조정.

OpenClaw를 운영 상태로 만드는 것이 첫 번째 단계이며, 여기서부터 더 풍부한 아키텍처 기능을 탐색하고 정교한 AI‑구동 워크플로를 구축할 수 있습니다.

0 조회
Back to Blog

관련 글

더 보기 »

일이 정신 건강 위험이 될 때

markdown !Ravi Mishrahttps://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fu...