在本地 LLM 和 LM Studio 中使用 Cursor

发布: (2026年1月18日 GMT+8 10:07)
5 min read
原文: Dev.to

抱歉,我需要您提供要翻译的具体文本内容(文章正文),才能为您完成简体中文翻译。请把需要翻译的文字粘贴在这里,我会保持原有的 markdown 格式和技术术语不变进行翻译。

前置条件

  • 已安装 Cursor
  • 已安装 LM Studio
  • 已安装 ngrok
  • 能够运行 LLM 的本地机器

本指南将使用模型 zai-org/glm-4.6v-flash

第一步 – 安装 LM Studio

  1. 从官方网站下载 LM Studio。
  2. 安装该应用程序。
  3. 启动 LM Studio。

第 2 步 – 下载模型

  1. 打开 LM Studio。
  2. 在应用内下载您想使用的模型。
  3. 本文中,请下载 zai-org/glm-4.6v-flash
  4. 等待下载完成后再继续。

LM Studio screenshot

第3步 – 安装 ngrok

ngrok 允许你将本地服务器暴露到互联网,并提供公共 URL。

  • 官方网站:

如果你使用 Homebrew(macOS/Linux),可以通过以下方式安装:

brew install ngrok

Step 4 – 设置 ngrok

  1. 创建一个 ngrok 账户(如果您还没有的话)。
  2. 从仪表板获取您的 auth token
  3. 对本地安装进行身份验证:
ngrok config add-authtoken {your_token}

第5步 – 在 LM Studio 中启动本地服务器

  1. 打开 LM Studio。
  2. 启用 开发者模式(设置 → 开发者)。
  3. 点击 启动本地服务器

LM Studio 将现在通过兼容 OpenAI 的 API 为你的 LLM 提供服务。

开发者模式截图
加载模型截图
模型加载中截图
已加载模型截图

Step 6 – 使用 ngrok 暴露本地服务器

打开终端并运行:

ngrok http 1234

注意: 1234 必须与 LM Studio 用于本地服务器的端口相匹配(默认是 1234)。

命令启动后,ngrok 会显示一个公网 URL,例如:

复制此 URL —— 在配置 Cursor 时需要用到它。

Typical ngrok output:

🚪 One gateway for every AI model. Available in early access *now*: https://ngrok.com/r/ai

Session Status                online
Account                       your_account (Plan: Free)
Version                       3.35.0
Region                        United States (us)
Latency                       19ms
Web Interface                 http://127.0.0.1:4040

现在,你已经拥有一个由 LM Studio 提供的本地运行的 LLM,并通过 ngrok 暴露到互联网,随时可以与 Cursor 配合使用。祝编码愉快!

Forwarding

https://something.ngrok-free.app → http://localhost:1234

Connections

ttlopnrt1rt5p50p90
700.000.006.26263.91

HTTP Requests

20:10:37.113 EST POST /v1/chat/completions 200 OK
20:06:13.115 EST POST /v1/chat/completions 200 OK
20:04:59.112 EST POST /v1/chat/completions 200 OK
20:04:42.221 EST POST /v1/chat/completions 200 OK
20:03:11.002 EST POST /v1/chat/completions 200 OK
20:03:05.636 EST POST /v1/chat/completions 200 OK
20:02:22.796 EST POST /v1/chat/completions 200 OK

第7步 – 打开 Cursor 设置

启动 Cursor 并导航至:

Settings → Models / OpenAI Configuration

Cursor 设置

第8步 – 配置 OpenAI 基础 URL

  1. 启用 OpenAI API 密钥。
  2. 为 API 密钥输入任意占位符值(例如 1234)。
  3. 将 ngrok URL 粘贴到 Override OpenAI Base URL
  4. 在 URL 末尾追加 /v1

你的最终 URL 应该是:

https://yours.ngrok-free.app/v1

第 9 步 – 添加自定义模型

  1. 点击 Add Custom Model
  2. 为本地 LLM 输入一个名称(例如 GLM4.6‑local)。

⚠️ Windows 用户:
必须输入 LM Studio 内部报告的精确模型名称。
本例中为:zai-org/glm-4.6v-flash

Add custom model

完成! 🎉

就这样——设置已完成。现在可以打开 Cursor Chat,输入提示并发送。Cursor 会通过 ngrok 将请求路由到在 LM Studio 中运行的本地 LLM。

Result

最后思考

使用 Cursor 与本地 LLM 相结合可以:

  • 降低 API 成本
  • 提升隐私保护
  • 试验自定义或开源模型

LM Studio 和 ngrok 让整个过程出奇地简便。配置完成后,使用体验几乎与使用托管的 OpenAI 模型相同——只不过所有操作都在你的机器上运行。

祝你玩得开心!🚀

Back to Blog

相关文章

阅读更多 »

Rapg:基于 TUI 的密钥管理器

我们都有这种经历。你加入一个新项目,首先听到的就是:“在 Slack 的置顶消息里查找 .env 文件”。或者你有多个 .env …

技术是赋能者,而非救世主

为什么思考的清晰度比你使用的工具更重要。Technology 常被视为一种魔法开关——只要打开,它就能让一切改善。新的 software,...

踏入 agentic coding

使用 Copilot Agent 的经验 我主要使用 GitHub Copilot 进行 inline edits 和 PR reviews,让我的大脑完成大部分思考。最近我决定 t...