在 VS Code 中使用 Ollama 进行本地 AI 辅助开发

发布: (2026年3月8日 GMT+8 08:33)
2 分钟阅读
原文: Dev.to

Source: Dev.to

概览

如果你想要一个在本地运行、无需将代码发送到云端的 AI 编码助手,Ollama 可以轻松在你的机器上运行 LLM,并且可以与 Visual Studio Code(以及其他 IDE)集成。

安装 Ollama

  1. 官方网站下载并安装 Ollama。

  2. 在终端中验证安装:

    ollama --version

运行模型

选择适合你硬件(RAM/CPU/GPU)的模型。对于编码任务,一个不错的起点是 qwen3-coder:7b

ollama run qwen3-coder

模型会在你首次运行时自动下载。你也可以通过 Ollama GUI 测试该模型。

安装 VS Code 扩展

一个支持 Ollama 的流行扩展是 Continue

  1. 打开 VS Code。
  2. 前往 扩展 视图(Ctrl+Shift+X)。
  3. 搜索 Continue 并点击 安装

配置扩展以使用 Ollama

打开 Continue 的配置文件,通常位于 ~/.continue/config.json,并添加你的本地 Ollama 模型:

{
  "models": [
    {
      "title": "My Qwen3 Coder Model",
      "provider": "ollama",
      "model": "qwen3-coder:7b"
    }
  ]
}

保存文件并重启 VS Code。

使用助手

现在你可以直接在 IDE 中提问或给出指令,例如:

  • “解释一下这段代码库。”
  • “添加以下功能 …”
  • “为文件 UserService.cs 编写单元测试。”

所有请求都会通过 Ollama 本地处理,使用你配置的模型。

Ollama 提供了一个私密、离线的 AI 编码助手,可作为 ChatGPT 或 Claude 等基于云的工具的替代方案——尤其在需要离线访问、用尽配额或强调隐私时非常有用。它免费运行,并支持众多开源模型。

0 浏览
Back to Blog

相关文章

阅读更多 »