LMStudio와 함께 Openclaw 설정 방법

발행: (2026년 1월 31일 오후 12:10 GMT+9)
5 분 소요
원문: Dev.to

Source: Dev.to

소개

OpenClaw는 Clawdbot → Moltbot → OpenClaw 로 진화하면서 큰 화제를 모았습니다. 대부분의 튜토리얼은 외부 API(OpenAI, Anthropic, Google 등)에 의존하는데, 이는 비용이 많이 들 수 있습니다. 이 가이드는 Linux 기반 Lenovo ThinkPad에서 LMStudio를 사용하여 OpenClaw를 로컬에서 실행하는 방법을 보여줍니다.

LMStudio 설치

  1. Linux 시스템에 LMStudio를 설치합니다.
    도움이 필요하면 YouTube 튜토리얼이 설치 과정을 안내합니다.

모델 선택

제한된 하드웨어 자원 때문에 GLM‑4.7 Flash의 양자화 버전을 선택했습니다. 모델을 다운로드한 후, LMStudio의 채팅 인터페이스가 간단한 “hello”에 약 50 초 정도 걸려 응답했으며, 이는 느리지만 초기 테스트에는 허용 가능한 수준입니다.

OpenClaw 설치

curl -fsSL https://openclaw.bot/install.sh | bash

설치 중에 수동 구성 마법사가 사용되었습니다. 일부 필수 필드(스킬, 모델 제공자, 토큰 등)가 누락되어 구성 파일을 수동으로 편집해야 했습니다.

openclaw.json 편집하기

~/.openclaw/openclaw.json(또는 설치 프로그램이 표시한 경로)를 열고 다음 섹션을 추가합니다. 환경에 맞게 경로와 값을 조정하세요.

{
  "meta": {
    "lastTouchedVersion": "2026.1.29",
    "lastTouchedAt": "2026-01-31T02:01:52.403Z"
  },
  "wizard": {
    "lastRunAt": "2026-01-31T02:01:52.399Z",
    "lastRunVersion": "2026.1.29",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "models": {
    "providers": {
      "lmstudio": {
        "baseUrl": "http://127.0.0.1:1234/v1",
        "apiKey": "lm-studio",
        "api": "openai-responses",
        "models": [
          {
            "id": "glm-4.7-flash",
            "name": "GLM-4.7 Flash",
            "reasoning": true,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0
            },
            "contextWindow": 20000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "lmstudio/glm-4.7-flash"
      },
      "workspace": "/home/Ubuntu/.openclaw/workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "hooks": {
    "internal": {
      "enabled": true,
      "entries": {
        "session-memory": {
          "enabled": true
        }
      }
    }
  },
  "gateway": {
    "port": 18789,
    "bind": "loopback",
    "mode": "local",
    "auth": {
      "mode": "token",
      "token": "generate-your-token"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  }
}

토큰 생성

게이트웨이 인증을 위한 토큰을 생성합니다:

openssl rand -hex 20

생성된 값을 gateway.auth.token 필드에 있는 "generate-your-token" 부분에 교체하세요.

설치 확인

설정 확인 명령을 실행합니다:

openclaw setup

예상 출력:

Config OK: ~/.openclaw/openclaw.json
Workspace OK: ~/.openclaw/workspace
Sessions: OK: ~/.openclaw/agents/main/sessions

게이트웨이 시작

게이트웨이 상태를 확인하십시오:

openclaw gateway status

다음과 유사한 줄이 표시됩니다:

Listening: 127.0.0.1:18789

이는 OpenClaw이 로컬에서 포트 18789를 수신하고 있음을 확인시켜 줍니다.

다음 단계

이 시점에서 OpenClaw가 설치되었으며 로컬 게이트웨이를 통해 접근할 수 있습니다. 향후 작업에는 다음이 포함됩니다:

  • OpenClaw CLI 또는 호환 클라이언트를 통해 봇과 상호 작용하기.
  • 사용자 정의 스킬 또는 에이전트 추가하기.
  • 성능을 모니터링하고 필요에 따라 모델 파라미터를 조정하기.

AI 에이전트 스트레스 테스트 (선택 사항)

내부 또는 상업용 AI 에이전트를 개발한다면 Zeroshot 도구를 사용해 간단한 스트레스 테스트를 수행할 수 있습니다:

zeroshot scan --target-url https://your-target-url --max-attacks 20

이 도구는 1,000개 이상의 공격 벡터를 포함한 라이브러리를 활용해 다양한 AI 시스템 카테고리에서 최대 50회(또는 그 이상) 공격을 실행할 수 있습니다. 무료 체험을 위해 Zeroshot 웹사이트를 방문하세요.

Back to Blog

관련 글

더 보기 »