OpenWarp

发布: (2026年5月1日 GMT+8 10:10)
4 分钟阅读

Source: Hacker News

简介

OpenWarp 在 Warp 之上加入 BYOP(自带提供商)能力 —— 自由配置 OpenAI 兼容接口、自定义模型与系统提示词、原生多语言。

查看 GitHub阅读文档

当前项目处于早期开发,尚未发布正式版本。

兼容主流提供商:OpenAI、Anthropic、DeepSeek、Qwen、Ollama、Groq 等。

工作方式

三步,把 AI 完全握在自己手里

  1. 接入任意提供商
    在设置中粘贴 Base URL 与 API Key —— 任何 OpenAI 兼容端点都即插即用,凭证仅保存在本地。

  2. 编写动态提示词
    基于 minijinja 的模板引擎,根据当前工作目录、语言、角色实时渲染系统提示词,精准引导模型。

  3. 在终端立即启用
    一键切换模型、对话、命令补全 —— 体验与 Warp 一致,但完全由你掌控。

核心特性

BYOP 自定义提供商

内置 OpenAI 兼容客户端,Base URL / API Key / Model 自由组合。

示例配置(~/.config/openwarp.toml):

base_url = "https://api.deepseek.com/v1"
api_key  = "sk-•••••••••••••••••••••"
model    = "deepseek-r1"

隐私优先

  • 不上传云端
  • 不收集遥测
  • 凭证零外发

多语言界面

原生中文、英文、日文、西班牙文 UI,社区可继续扩展更多语种。

系统提示词模板

基于 minijinja 的强大模板,根据上下文动态渲染指令。

{# minijinja #}
You are an expert {{ role }}.
Workspace: {{ cwd }}
{% if locale %}
Reply in {{ locale }}.
{% endif %}

保留 Warp 体验

完整保留块、AI 命令、工作流、键位映射、主题等功能。

开源协议

与 Warp 上游一致,采用 AGPL / MIT 双许可,代码全部公开。

自定义提供商

一次配置,所有兼容 OpenAI Chat Completions 协议的模型均可使用,包括 OpenAI、Anthropic 网关、DeepSeek、Qwen、本地 Ollama 等。

  • ✅ OpenAI 兼容流式协议
  • minijinja 模板渲染系统提示词
  • ✅ 多账号、多模型一键切换
  • ✅ 本地保存,凭证不离开设备

系统提示词模板示例:

{% if user.role %}
You are an expert {{ user.role }}.
{% endif %}
Reply in {{ locale }}.

常见问题

OpenWarp 与 Warp 官方是什么关系?

OpenWarp 基于 Warp 开源代码的社区分支,与 Warp 官方公司无附属关系,遵循上游的 AGPL / MIT 双许可。

我的 API Key 会被上传吗?

不会。所有自定义提供商凭证仅保存在本地配置文件中,直接由 OpenWarp 与指定的 Base URL 通信,不经任何中转。

支持哪些模型提供商?

只要兼容 OpenAI Chat Completions 流式协议都可以接入:OpenAI、DeepSeek、Qwen、Groq、Together、本地 Ollama / LM Studio,以及众多代理网关。

能继续收到 Warp 上游更新吗?

会持续合并 Warp 上游主线,在保留体验的同时叠加 BYOP 与多语言增强。

0 浏览
Back to Blog

相关文章

阅读更多 »

当网络无法工作时

我的 Windows 11 → Tyan SMDC IPMI 故障排除故事 _上周,我花了太多时间尝试让我的 Windows 11 机器与一台古老的 Tyan SMDC S...

白宫考虑在发布前审查AI模型

抱歉,我需要您提供要翻译的具体摘录或摘要文本,才能为您进行翻译。请粘贴相应的内容,我会尽快为您翻译成简体中文。