🧰 我构建了 LLMKit:用于测试 LLM API 的完整工具包
发布: (2025年12月20日 GMT+8 02:50)
3 min read
原文: Dev.to
Source: Dev.to
厌倦了在 Postman、文档和代码编辑器之间切换来测试 LLM API 吗?我做了一个解决方案。🚀
作为一名从事 AI 集成的开发者,我一直在不断:
- 在不同提供商(Anthropic 与第三方)之间测试 Claude
- 一遍又一遍地编写相同的 API 代码
- 手动比较模型响应
- 通过截图共享配置 😅
我构建了一个 Next.js 应用,所有功能集中在一个地方。
Features
| Feature | Description |
|---|---|
| 🔍 Model Database | 50+ LLM 模型,包含规格和定价 |
| ⚡ Provider Comparison | 在不同 API 上测试同一模型 |
| 💻 Code Generator | 自动生成 JavaScript、Python、cURL 代码 |
| 🧪 API Tester | 在浏览器中直接测试并查看指标 |
| 🔗 Shareable URLs | 通过 URL 参数共享配置 |
Built With
- Framework: Next.js 14 with App Router
- Language: TypeScript for type safety
- Styling: Tailwind CSS + Shadcn/ui components
- Theme: Professional dark/light mode with orange accents
该应用会自动生成可直接使用的生产级 API 集成代码,支持 JavaScript、Python 和 cURL 格式。只需选择模型和提供商,即可得到可复制粘贴的实现代码。
通过 URL 参数共享你的完整测试设置——非常适合团队协作和文档编写。实时指标包括响应时间、令牌使用量以及每次 API 调用的费用估算。
Key Insights from Building LLMKit
- Start simple – 最初过度设计的状态管理拖慢了进度。
- Mobile matters – 移动端用户比预期多;为小屏幕实现了基于标签的导航。
- TypeScript saves time – 在开发阶段提前捕获了错误。
- User feedback is gold – 早期测试者揭示了 UX 问题,指导了改进。
- CORS issues – 通过 Next.js API 路由充当代理解决。
- API key security – 仅在客户端保存密钥,并给出明确警示。
Live Demo
Perfect For
- API 开发者进行集成测试
- 团队比较模型性能
- 初创公司评估 AI 提供商
- 任何想学习 LLM API 的人
Roadmap (Planned)
- 用户认证与配置保存
- 团队协作功能
- API 使用分析
- 流式响应支持
Call to Action
我因为自己需要而构建了它,结果发现其他开发者也有同样需求!
你用什么工具进行 API 测试? 👇