Cursor를 로컬 LLM 및 LM Studio와 함께 사용하기

발행: (2026년 1월 18일 오전 11:07 GMT+9)
5 min read
원문: Dev.to

I’m happy to translate the article for you, but I need the full text of the post in order to do so. Could you please paste the content you’d like translated (excluding the source link, which will stay unchanged)? Once I have the text, I’ll provide a Korean translation while preserving all formatting, markdown, and code blocks.

Prerequisites

  • Cursor installed
  • LM Studio installed
  • ngrok installed
  • A local machine capable of running an LLM

For this guide we’ll use the model zai-org/glm-4.6v-flash.

Step 1 – LM Studio 설치

  1. 공식 사이트에서 LM Studio를 다운로드합니다.
  2. 애플리케이션을 설치합니다.
  3. LM Studio를 실행합니다.

Step 2 – 모델 다운로드

  1. LM Studio를 엽니다.
  2. 앱 안에서 사용하려는 모델을 다운로드합니다.
  3. 이 글에서는 **zai-org/glm-4.6v-flash**를 다운로드합니다.
  4. 진행하기 전에 다운로드가 완료될 때까지 기다립니다.

LM Studio screenshot

3단계 – ngrok 설치

ngrok는 로컬 서버를 공개 URL을 통해 인터넷에 노출할 수 있게 해줍니다.

  • 공식 사이트:

만약 Homebrew (macOS/Linux)를 사용한다면, 다음과 같이 설치하세요:

brew install ngrok

Step 4 – ngrok 설정

  1. ngrok 계정을 만들세요 (계정이 없으시다면).
  2. 대시보드에서 auth token을 가져오세요.
  3. 로컬 설치를 인증하세요:
ngrok config add-authtoken {your_token}

5단계 – LM Studio에서 로컬 서버 시작

  1. LM Studio를 엽니다.
  2. Developer Mode를 활성화합니다 (Settings → Developer).
  3. Start Local Server를 클릭합니다.

LM Studio가 이제 OpenAI 호환 API를 통해 여러분의 LLM을 제공합니다.

개발자 모드 스크린샷
모델 로드 스크린샷
모델 로딩 스크린샷
로드된 모델 스크린샷

Step 6 – ngrok으로 로컬 서버 노출하기

터미널을 열고 다음을 실행합니다:

ngrok http 1234

Note: 1234는 LM Studio가 로컬 서버에 사용하는 포트와 일치해야 합니다 (기본값은 1234).

명령이 시작되면 ngrok이 공개 URL을 표시합니다, 예:

URL을 복사하세요 – Cursor를 설정할 때 필요합니다.

Typical ngrok output:

🚪 One gateway for every AI model. Available in early access *now*: https://ngrok.com/r/ai

Session Status                online
Account                       your_account (Plan: Free)
Version                       3.35.0
Region                        United States (us)
Latency                       19ms
Web Interface                 http://127.0.0.1:4040

이제 LM Studio가 제공하고 ngrok을 통해 인터넷에 노출된 로컬에서 실행되는 LLM을 보유하게 되었으며, Cursor와 함께 사용할 준비가 되었습니다. 즐거운 코딩 되세요!

포워딩

https://something.ngrok-free.app → http://localhost:1234

연결

ttlopnrt1rt5p50p90
700.000.006.26263.91

HTTP 요청

20:10:37.113 EST POST /v1/chat/completions 200 OK
20:06:13.115 EST POST /v1/chat/completions 200 OK
20:04:59.112 EST POST /v1/chat/completions 200 OK
20:04:42.221 EST POST /v1/chat/completions 200 OK
20:03:11.002 EST POST /v1/chat/completions 200 OK
20:03:05.636 EST POST /v1/chat/completions 200 OK
20:02:22.796 EST POST /v1/chat/completions 200 OK

Step 7 – Open Cursor Settings

Launch Cursor and navigate to:

Settings → Models / OpenAI Configuration

Cursor settings

Step 8 – Configure the OpenAI Base URL

  1. OpenAI API 키를 활성화합니다.
  2. API 키에 임시 값을 입력합니다 (예: 1234).
  3. ngrok URL을 Override OpenAI Base URL에 붙여넣습니다.
  4. URL 끝에 /v1을 추가합니다.

최종 URL은 다음과 같이 표시됩니다:

https://yours.ngrok-free.app/v1

Step 9 – 커스텀 모델 추가

  1. Add Custom Model을 클릭합니다.
  2. 로컬 LLM의 이름을 입력합니다 (예: GLM4.6‑local).

⚠️ Windows 사용자:
LM Studio가 내부적으로 보고하는 정확한 모델 이름을 입력해야 합니다.
이 경우: zai-org/glm-4.6v-flash

Add custom model

완료! 🎉

이제 설정이 끝났습니다. Cursor Chat을 열고 프롬프트를 입력한 뒤 전송하면, Cursor가 ngrok을 통해 LM Studio에서 실행 중인 로컬 LLM으로 요청을 라우팅합니다.

Result

최종 생각

로컬 LLM과 함께 Cursor를 사용하는 것은 다음과 같은 좋은 방법입니다:

  • API 비용 절감
  • 프라이버시 향상
  • 커스텀 또는 오픈‑소스 모델 실험

LM Studio와 ngrok은 이 과정을 놀라울 정도로 간단하게 만들어 줍니다. 설정이 완료되면 호스팅된 OpenAI 모델을 사용하는 것과 거의 동일하게 느껴지지만, 모든 것이 내 컴퓨터에서 실행됩니다.

해킹을 즐기세요! 🚀

Back to Blog

관련 글

더 보기 »

API Doc 포트폴리오

새해, 새로운 당신 포트폴리오 챌린지 – Google AI 저자: 멕시코 소프트웨어 엔지니어 – 백엔드 중심, Python 중심, 프론트엔드 기술에 대한 관심이 커지고 있음...

‘Virtual Air Gap’: AWS에서 Fort Knox 구축

당신의 CISO나 독일의 매우 엄격한 Data Privacy Officer 앞에 서서 “우리는 민감한 환자 데이터를 클라우드로 옮기고 있습니다.” 라고 말한다고 상상해 보세요. The...