在 VS Code 中使用 Ollama 进行本地 AI 辅助开发
Source: Dev.to
概览
如果你想要一个在本地运行、无需将代码发送到云端的 AI 编码助手,Ollama 可以轻松在你的机器上运行 LLM,并且可以与 Visual Studio Code(以及其他 IDE)集成。
安装 Ollama
-
从官方网站下载并安装 Ollama。
-
在终端中验证安装:
ollama --version
运行模型
选择适合你硬件(RAM/CPU/GPU)的模型。对于编码任务,一个不错的起点是 qwen3-coder:7b。
ollama run qwen3-coder
模型会在你首次运行时自动下载。你也可以通过 Ollama GUI 测试该模型。
安装 VS Code 扩展
一个支持 Ollama 的流行扩展是 Continue。
- 打开 VS Code。
- 前往 扩展 视图(
Ctrl+Shift+X)。 - 搜索 Continue 并点击 安装。
配置扩展以使用 Ollama
打开 Continue 的配置文件,通常位于 ~/.continue/config.json,并添加你的本地 Ollama 模型:
{
"models": [
{
"title": "My Qwen3 Coder Model",
"provider": "ollama",
"model": "qwen3-coder:7b"
}
]
}
保存文件并重启 VS Code。
使用助手
现在你可以直接在 IDE 中提问或给出指令,例如:
- “解释一下这段代码库。”
- “添加以下功能 …”
- “为文件
UserService.cs编写单元测试。”
所有请求都会通过 Ollama 本地处理,使用你配置的模型。
Ollama 提供了一个私密、离线的 AI 编码助手,可作为 ChatGPT 或 Claude 等基于云的工具的替代方案——尤其在需要离线访问、用尽配额或强调隐私时非常有用。它免费运行,并支持众多开源模型。