OpenWarp
Source: Hacker News
简介
OpenWarp 在 Warp 之上加入 BYOP(自带提供商)能力 —— 自由配置 OpenAI 兼容接口、自定义模型与系统提示词、原生多语言。
当前项目处于早期开发,尚未发布正式版本。
兼容主流提供商:OpenAI、Anthropic、DeepSeek、Qwen、Ollama、Groq 等。
工作方式
三步,把 AI 完全握在自己手里
-
接入任意提供商
在设置中粘贴 Base URL 与 API Key —— 任何 OpenAI 兼容端点都即插即用,凭证仅保存在本地。 -
编写动态提示词
基于minijinja的模板引擎,根据当前工作目录、语言、角色实时渲染系统提示词,精准引导模型。 -
在终端立即启用
一键切换模型、对话、命令补全 —— 体验与 Warp 一致,但完全由你掌控。
核心特性
BYOP 自定义提供商
内置 OpenAI 兼容客户端,Base URL / API Key / Model 自由组合。
示例配置(~/.config/openwarp.toml):
base_url = "https://api.deepseek.com/v1"
api_key = "sk-•••••••••••••••••••••"
model = "deepseek-r1"
隐私优先
- 不上传云端
- 不收集遥测
- 凭证零外发
多语言界面
原生中文、英文、日文、西班牙文 UI,社区可继续扩展更多语种。
系统提示词模板
基于 minijinja 的强大模板,根据上下文动态渲染指令。
{# minijinja #}
You are an expert {{ role }}.
Workspace: {{ cwd }}
{% if locale %}
Reply in {{ locale }}.
{% endif %}
保留 Warp 体验
完整保留块、AI 命令、工作流、键位映射、主题等功能。
开源协议
与 Warp 上游一致,采用 AGPL / MIT 双许可,代码全部公开。
自定义提供商
一次配置,所有兼容 OpenAI Chat Completions 协议的模型均可使用,包括 OpenAI、Anthropic 网关、DeepSeek、Qwen、本地 Ollama 等。
- ✅ OpenAI 兼容流式协议
- ✅
minijinja模板渲染系统提示词 - ✅ 多账号、多模型一键切换
- ✅ 本地保存,凭证不离开设备
系统提示词模板示例:
{% if user.role %}
You are an expert {{ user.role }}.
{% endif %}
Reply in {{ locale }}.
常见问题
OpenWarp 与 Warp 官方是什么关系?
OpenWarp 基于 Warp 开源代码的社区分支,与 Warp 官方公司无附属关系,遵循上游的 AGPL / MIT 双许可。
我的 API Key 会被上传吗?
不会。所有自定义提供商凭证仅保存在本地配置文件中,直接由 OpenWarp 与指定的 Base URL 通信,不经任何中转。
支持哪些模型提供商?
只要兼容 OpenAI Chat Completions 流式协议都可以接入:OpenAI、DeepSeek、Qwen、Groq、Together、本地 Ollama / LM Studio,以及众多代理网关。
能继续收到 Warp 上游更新吗?
会持续合并 Warp 上游主线,在保留体验的同时叠加 BYOP 与多语言增强。