🧰 我构建了 LLMKit:用于测试 LLM API 的完整工具包

发布: (2025年12月20日 GMT+8 02:50)
3 min read
原文: Dev.to

Source: Dev.to

厌倦了在 Postman、文档和代码编辑器之间切换来测试 LLM API 吗?我做了一个解决方案。🚀

作为一名从事 AI 集成的开发者,我一直在不断:

  • 在不同提供商(Anthropic 与第三方)之间测试 Claude
  • 一遍又一遍地编写相同的 API 代码
  • 手动比较模型响应
  • 通过截图共享配置 😅

我构建了一个 Next.js 应用,所有功能集中在一个地方。

Features

FeatureDescription
🔍 Model Database50+ LLM 模型,包含规格和定价
Provider Comparison在不同 API 上测试同一模型
💻 Code Generator自动生成 JavaScript、Python、cURL 代码
🧪 API Tester在浏览器中直接测试并查看指标
🔗 Shareable URLs通过 URL 参数共享配置

Built With

  • Framework: Next.js 14 with App Router
  • Language: TypeScript for type safety
  • Styling: Tailwind CSS + Shadcn/ui components
  • Theme: Professional dark/light mode with orange accents

该应用会自动生成可直接使用的生产级 API 集成代码,支持 JavaScript、Python 和 cURL 格式。只需选择模型和提供商,即可得到可复制粘贴的实现代码。

通过 URL 参数共享你的完整测试设置——非常适合团队协作和文档编写。实时指标包括响应时间、令牌使用量以及每次 API 调用的费用估算。

Key Insights from Building LLMKit

  • Start simple – 最初过度设计的状态管理拖慢了进度。
  • Mobile matters – 移动端用户比预期多;为小屏幕实现了基于标签的导航。
  • TypeScript saves time – 在开发阶段提前捕获了错误。
  • User feedback is gold – 早期测试者揭示了 UX 问题,指导了改进。
  • CORS issues – 通过 Next.js API 路由充当代理解决。
  • API key security – 仅在客户端保存密钥,并给出明确警示。

Live Demo

🔗 https://llmkit.cc

Perfect For

  • API 开发者进行集成测试
  • 团队比较模型性能
  • 初创公司评估 AI 提供商
  • 任何想学习 LLM API 的人

Roadmap (Planned)

  • 用户认证与配置保存
  • 团队协作功能
  • API 使用分析
  • 流式响应支持

Call to Action

我因为自己需要而构建了它,结果发现其他开发者也有同样需求!

你用什么工具进行 API 测试? 👇

Back to Blog

相关文章

阅读更多 »

仓库利用的权威指南

引言 仓库本质上只是一个 3‑D 盒子。利用率只是衡量你实际使用了该盒子多少的指标。虽然物流 c...