LMStudio와 함께 Openclaw 설정 방법
Source: Dev.to
소개
OpenClaw는 Clawdbot → Moltbot → OpenClaw 로 진화하면서 큰 화제를 모았습니다. 대부분의 튜토리얼은 외부 API(OpenAI, Anthropic, Google 등)에 의존하는데, 이는 비용이 많이 들 수 있습니다. 이 가이드는 Linux 기반 Lenovo ThinkPad에서 LMStudio를 사용하여 OpenClaw를 로컬에서 실행하는 방법을 보여줍니다.
LMStudio 설치
- Linux 시스템에 LMStudio를 설치합니다.
도움이 필요하면 YouTube 튜토리얼이 설치 과정을 안내합니다.
모델 선택
제한된 하드웨어 자원 때문에 GLM‑4.7 Flash의 양자화 버전을 선택했습니다. 모델을 다운로드한 후, LMStudio의 채팅 인터페이스가 간단한 “hello”에 약 50 초 정도 걸려 응답했으며, 이는 느리지만 초기 테스트에는 허용 가능한 수준입니다.
OpenClaw 설치
curl -fsSL https://openclaw.bot/install.sh | bash
설치 중에 수동 구성 마법사가 사용되었습니다. 일부 필수 필드(스킬, 모델 제공자, 토큰 등)가 누락되어 구성 파일을 수동으로 편집해야 했습니다.
openclaw.json 편집하기
~/.openclaw/openclaw.json(또는 설치 프로그램이 표시한 경로)를 열고 다음 섹션을 추가합니다. 환경에 맞게 경로와 값을 조정하세요.
{
"meta": {
"lastTouchedVersion": "2026.1.29",
"lastTouchedAt": "2026-01-31T02:01:52.403Z"
},
"wizard": {
"lastRunAt": "2026-01-31T02:01:52.399Z",
"lastRunVersion": "2026.1.29",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"models": {
"providers": {
"lmstudio": {
"baseUrl": "http://127.0.0.1:1234/v1",
"apiKey": "lm-studio",
"api": "openai-responses",
"models": [
{
"id": "glm-4.7-flash",
"name": "GLM-4.7 Flash",
"reasoning": true,
"input": ["text"],
"cost": {
"input": 0,
"output": 0
},
"contextWindow": 20000,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "lmstudio/glm-4.7-flash"
},
"workspace": "/home/Ubuntu/.openclaw/workspace",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto"
},
"hooks": {
"internal": {
"enabled": true,
"entries": {
"session-memory": {
"enabled": true
}
}
}
},
"gateway": {
"port": 18789,
"bind": "loopback",
"mode": "local",
"auth": {
"mode": "token",
"token": "generate-your-token"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
}
},
"skills": {
"install": {
"nodeManager": "npm"
}
}
}
토큰 생성
게이트웨이 인증을 위한 토큰을 생성합니다:
openssl rand -hex 20
생성된 값을 gateway.auth.token 필드에 있는 "generate-your-token" 부분에 교체하세요.
설치 확인
설정 확인 명령을 실행합니다:
openclaw setup
예상 출력:
Config OK: ~/.openclaw/openclaw.json
Workspace OK: ~/.openclaw/workspace
Sessions: OK: ~/.openclaw/agents/main/sessions
게이트웨이 시작
게이트웨이 상태를 확인하십시오:
openclaw gateway status
다음과 유사한 줄이 표시됩니다:
Listening: 127.0.0.1:18789
이는 OpenClaw이 로컬에서 포트 18789를 수신하고 있음을 확인시켜 줍니다.
다음 단계
이 시점에서 OpenClaw가 설치되었으며 로컬 게이트웨이를 통해 접근할 수 있습니다. 향후 작업에는 다음이 포함됩니다:
- OpenClaw CLI 또는 호환 클라이언트를 통해 봇과 상호 작용하기.
- 사용자 정의 스킬 또는 에이전트 추가하기.
- 성능을 모니터링하고 필요에 따라 모델 파라미터를 조정하기.
AI 에이전트 스트레스 테스트 (선택 사항)
내부 또는 상업용 AI 에이전트를 개발한다면 Zeroshot 도구를 사용해 간단한 스트레스 테스트를 수행할 수 있습니다:
zeroshot scan --target-url https://your-target-url --max-attacks 20
이 도구는 1,000개 이상의 공격 벡터를 포함한 라이브러리를 활용해 다양한 AI 시스템 카테고리에서 최대 50회(또는 그 이상) 공격을 실행할 수 있습니다. 무료 체험을 위해 Zeroshot 웹사이트를 방문하세요.