在本地 LLM 和 LM Studio 中使用 Cursor
抱歉,我需要您提供要翻译的具体文本内容(文章正文),才能为您完成简体中文翻译。请把需要翻译的文字粘贴在这里,我会保持原有的 markdown 格式和技术术语不变进行翻译。
前置条件
- 已安装 Cursor
- 已安装 LM Studio
- 已安装 ngrok
- 能够运行 LLM 的本地机器
本指南将使用模型 zai-org/glm-4.6v-flash。
第一步 – 安装 LM Studio
- 从官方网站下载 LM Studio。
- 安装该应用程序。
- 启动 LM Studio。
第 2 步 – 下载模型
- 打开 LM Studio。
- 在应用内下载您想使用的模型。
- 本文中,请下载
zai-org/glm-4.6v-flash。 - 等待下载完成后再继续。

第3步 – 安装 ngrok
ngrok 允许你将本地服务器暴露到互联网,并提供公共 URL。
- 官方网站:
如果你使用 Homebrew(macOS/Linux),可以通过以下方式安装:
brew install ngrok
Step 4 – 设置 ngrok
- 创建一个 ngrok 账户(如果您还没有的话)。
- 从仪表板获取您的 auth token。
- 对本地安装进行身份验证:
ngrok config add-authtoken {your_token}
第5步 – 在 LM Studio 中启动本地服务器
- 打开 LM Studio。
- 启用 开发者模式(设置 → 开发者)。
- 点击 启动本地服务器。
LM Studio 将现在通过兼容 OpenAI 的 API 为你的 LLM 提供服务。




Step 6 – 使用 ngrok 暴露本地服务器
打开终端并运行:
ngrok http 1234
注意:
1234必须与 LM Studio 用于本地服务器的端口相匹配(默认是 1234)。
命令启动后,ngrok 会显示一个公网 URL,例如:
复制此 URL —— 在配置 Cursor 时需要用到它。
Typical ngrok output:
🚪 One gateway for every AI model. Available in early access *now*: https://ngrok.com/r/ai
Session Status online
Account your_account (Plan: Free)
Version 3.35.0
Region United States (us)
Latency 19ms
Web Interface http://127.0.0.1:4040
现在,你已经拥有一个由 LM Studio 提供的本地运行的 LLM,并通过 ngrok 暴露到互联网,随时可以与 Cursor 配合使用。祝编码愉快!
Forwarding
https://something.ngrok-free.app → http://localhost:1234
Connections
| ttl | opn | rt1 | rt5 | p50 | p90 |
|---|---|---|---|---|---|
| 7 | 0 | 0.00 | 0.00 | 6.26 | 263.91 |
HTTP Requests
20:10:37.113 EST POST /v1/chat/completions 200 OK
20:06:13.115 EST POST /v1/chat/completions 200 OK
20:04:59.112 EST POST /v1/chat/completions 200 OK
20:04:42.221 EST POST /v1/chat/completions 200 OK
20:03:11.002 EST POST /v1/chat/completions 200 OK
20:03:05.636 EST POST /v1/chat/completions 200 OK
20:02:22.796 EST POST /v1/chat/completions 200 OK
第7步 – 打开 Cursor 设置
启动 Cursor 并导航至:
Settings → Models / OpenAI Configuration

第8步 – 配置 OpenAI 基础 URL
- 启用 OpenAI API 密钥。
- 为 API 密钥输入任意占位符值(例如
1234)。 - 将 ngrok URL 粘贴到 Override OpenAI Base URL。
- 在 URL 末尾追加
/v1。
你的最终 URL 应该是:
https://yours.ngrok-free.app/v1
第 9 步 – 添加自定义模型
- 点击 Add Custom Model。
- 为本地 LLM 输入一个名称(例如
GLM4.6‑local)。
⚠️ Windows 用户:
必须输入 LM Studio 内部报告的精确模型名称。
本例中为:zai-org/glm-4.6v-flash

完成! 🎉
就这样——设置已完成。现在可以打开 Cursor Chat,输入提示并发送。Cursor 会通过 ngrok 将请求路由到在 LM Studio 中运行的本地 LLM。

最后思考
使用 Cursor 与本地 LLM 相结合可以:
- 降低 API 成本
- 提升隐私保护
- 试验自定义或开源模型
LM Studio 和 ngrok 让整个过程出奇地简便。配置完成后,使用体验几乎与使用托管的 OpenAI 模型相同——只不过所有操作都在你的机器上运行。
祝你玩得开心!🚀