Cursor를 로컬 LLM 및 LM Studio와 함께 사용하기
I’m happy to translate the article for you, but I need the full text of the post in order to do so. Could you please paste the content you’d like translated (excluding the source link, which will stay unchanged)? Once I have the text, I’ll provide a Korean translation while preserving all formatting, markdown, and code blocks.
Prerequisites
- Cursor installed
- LM Studio installed
- ngrok installed
- A local machine capable of running an LLM
For this guide we’ll use the model zai-org/glm-4.6v-flash.
Step 1 – LM Studio 설치
- 공식 사이트에서 LM Studio를 다운로드합니다.
- 애플리케이션을 설치합니다.
- LM Studio를 실행합니다.
Step 2 – 모델 다운로드
- LM Studio를 엽니다.
- 앱 안에서 사용하려는 모델을 다운로드합니다.
- 이 글에서는 **
zai-org/glm-4.6v-flash**를 다운로드합니다. - 진행하기 전에 다운로드가 완료될 때까지 기다립니다.

3단계 – ngrok 설치
ngrok는 로컬 서버를 공개 URL을 통해 인터넷에 노출할 수 있게 해줍니다.
- 공식 사이트:
만약 Homebrew (macOS/Linux)를 사용한다면, 다음과 같이 설치하세요:
brew install ngrok
Step 4 – ngrok 설정
- ngrok 계정을 만들세요 (계정이 없으시다면).
- 대시보드에서 auth token을 가져오세요.
- 로컬 설치를 인증하세요:
ngrok config add-authtoken {your_token}
5단계 – LM Studio에서 로컬 서버 시작
- LM Studio를 엽니다.
- Developer Mode를 활성화합니다 (Settings → Developer).
- Start Local Server를 클릭합니다.
LM Studio가 이제 OpenAI 호환 API를 통해 여러분의 LLM을 제공합니다.




Step 6 – ngrok으로 로컬 서버 노출하기
터미널을 열고 다음을 실행합니다:
ngrok http 1234
Note:
1234는 LM Studio가 로컬 서버에 사용하는 포트와 일치해야 합니다 (기본값은 1234).
명령이 시작되면 ngrok이 공개 URL을 표시합니다, 예:
URL을 복사하세요 – Cursor를 설정할 때 필요합니다.
Typical ngrok output:
🚪 One gateway for every AI model. Available in early access *now*: https://ngrok.com/r/ai
Session Status online
Account your_account (Plan: Free)
Version 3.35.0
Region United States (us)
Latency 19ms
Web Interface http://127.0.0.1:4040
이제 LM Studio가 제공하고 ngrok을 통해 인터넷에 노출된 로컬에서 실행되는 LLM을 보유하게 되었으며, Cursor와 함께 사용할 준비가 되었습니다. 즐거운 코딩 되세요!
포워딩
https://something.ngrok-free.app → http://localhost:1234
연결
| ttl | opn | rt1 | rt5 | p50 | p90 |
|---|---|---|---|---|---|
| 7 | 0 | 0.00 | 0.00 | 6.26 | 263.91 |
HTTP 요청
20:10:37.113 EST POST /v1/chat/completions 200 OK
20:06:13.115 EST POST /v1/chat/completions 200 OK
20:04:59.112 EST POST /v1/chat/completions 200 OK
20:04:42.221 EST POST /v1/chat/completions 200 OK
20:03:11.002 EST POST /v1/chat/completions 200 OK
20:03:05.636 EST POST /v1/chat/completions 200 OK
20:02:22.796 EST POST /v1/chat/completions 200 OK
Step 7 – Open Cursor Settings
Launch Cursor and navigate to:
Settings → Models / OpenAI Configuration

Step 8 – Configure the OpenAI Base URL
- OpenAI API 키를 활성화합니다.
- API 키에 임시 값을 입력합니다 (예:
1234). - ngrok URL을 Override OpenAI Base URL에 붙여넣습니다.
- URL 끝에
/v1을 추가합니다.
최종 URL은 다음과 같이 표시됩니다:
https://yours.ngrok-free.app/v1
Step 9 – 커스텀 모델 추가
- Add Custom Model을 클릭합니다.
- 로컬 LLM의 이름을 입력합니다 (예:
GLM4.6‑local).
⚠️ Windows 사용자:
LM Studio가 내부적으로 보고하는 정확한 모델 이름을 입력해야 합니다.
이 경우:zai-org/glm-4.6v-flash

완료! 🎉
이제 설정이 끝났습니다. Cursor Chat을 열고 프롬프트를 입력한 뒤 전송하면, Cursor가 ngrok을 통해 LM Studio에서 실행 중인 로컬 LLM으로 요청을 라우팅합니다.

최종 생각
로컬 LLM과 함께 Cursor를 사용하는 것은 다음과 같은 좋은 방법입니다:
- API 비용 절감
- 프라이버시 향상
- 커스텀 또는 오픈‑소스 모델 실험
LM Studio와 ngrok은 이 과정을 놀라울 정도로 간단하게 만들어 줍니다. 설정이 완료되면 호스팅된 OpenAI 모델을 사용하는 것과 거의 동일하게 느껴지지만, 모든 것이 내 컴퓨터에서 실행됩니다.
해킹을 즐기세요! 🚀