MCP for AI 服务:如何让 Claude Desktop 访问 30 个 GPU 驱动的工具
Source: Dev.to
Claude Desktop 可以浏览网页并读取文件。借助 MCP(Model Context Protocol)和 GPU‑Bridge,它还可以生成图像、转录音频,并在开源模型上进行 LLM 推理——大约只需 30 秒。
什么是 MCP?
MCP 是一个开放协议(由 Anthropic 创建),让 AI 模型可以使用外部工具。可以把它看作是 LLM 的插件系统:
flowchart LR
A[Claude Desktop] -- MCP Protocol --> B[Tool Server] --> C[External Service]
任何兼容 MCP 的工具服务器都可以插入 Claude Desktop、Cursor、Windsurf 或任何 MCP 客户端。模型会发现可用的工具并根据需要使用它们。
Source: …
设置 GPU‑Bridge MCP
步骤 1:获取 API 密钥
在 gpubridge.io 注册并生成 API 密钥,或使用 x402(USDC)选项,无需账户。
步骤 2:配置 Claude Desktop
在 Claude Desktop 配置文件(macOS 上为 ~/Library/Application Support/Claude/claude_desktop_config.json)中添加以下内容:
{
"mcpServers": {
"gpu-bridge": {
"command": "npx",
"args": ["-y", "@gpu-bridge/mcp-server"],
"env": {
"GPUBRIDGE_API_KEY": "your-api-key-here"
}
}
}
}
步骤 3:重启 Claude Desktop
重启后,Claude 将能够访问 30 项 AI 服务。
您可以做什么?
一旦连接,Claude 可以调用多种工具:
🎨 图像生成
Prompt: “生成一张未来东京夜街的图像。”
Claude 调用 gpu_bridge_run,参数 service: "image-sdxl",并返回生成的图像。
🔤 文本嵌入
Prompt: “为这 100 条产品描述创建嵌入,并找出最相似的配对。”
Claude 调用嵌入服务,获取向量,并在对话中计算相似度。
🗣️ 语音转文本
Prompt: “转录此音频文件。”
Claude 使用转录服务将语音转换为文本。
📄 文档解析
Prompt: “提取此 PDF 中的所有文本和表格。”
Claude 调用文档解析器并返回结构化内容。
🤖 开源大模型
Prompt: “让 Llama 3.3 70B 审核这段代码。”
Claude 将请求路由至 Groq 的 Llama 推理,并返回响应,允许将任务委派给其他专用的大模型。
5个 MCP 工具
| Tool | Description |
|---|---|
gpu_bridge_run | 执行任意 30 项 AI 服务 |
gpu_bridge_services | 列出可用服务及其定价 |
gpu_bridge_models | 获取服务可用的模型 |
gpu_bridge_health | 检查 API 状态 |
gpu_bridge_docs | 获取使用文档 |
gpu_bridge_run 是主力工具;它接受服务名称和输入,将请求路由到相应的 GPU 提供商,并返回结果。
实际工作流程示例
你: “读取这篇研究论文 PDF,提取关键发现,为每个发现生成嵌入,并创建一个可视化主要概念的摘要图像。”
Claude 的做法:
- 调用
gpu_bridge_run并指定service: "document-parse"→ 从 PDF 中提取文本。 - 处理文本以识别关键发现。
- 调用
gpu_bridge_run并指定service: "embeddings"→ 生成用于语义聚类的向量。 - 按相似度对发现进行分组。
- 调用
gpu_bridge_run并指定service: "image-sdxl"→ 生成概念可视化。 - 将所有内容呈现为连贯的摘要。
在单次对话中完成四个 GPU 加速的操作——无需切换应用,也无需手动处理 API。
定价
| 操作 | 大致成本 |
|---|---|
| 图像生成 | $0.003 – $0.005 |
| 1 K 令牌嵌入 | $0.00003 |
| 文档解析 | $0.002 |
| LLM 推理(1 K 令牌) | $0.0006 – $0.003 |
一次包含 20 次工具调用的典型研究会话成本可能为 $0.05 – $0.10。
超越 Claude Desktop
GPU‑Bridge MCP 与任何兼容 MCP 的客户端一起使用:
- Cursor – 使用 GPU 加速工具的 AI 编码
- Windsurf – 相同设置,不同编辑器
- Custom agents – 任意 MCP 客户端库
MCP 服务器也可作为托管的 HTTP 端点使用:
POST https://api.gpubridge.io/mcp
这允许基于网页的代理在不运行本地服务器的情况下使用这些服务。
入门
# Try it immediately (no install)
npx @gpu-bridge/mcp-server
# Or install globally
npm install -g @gpu-bridge/mcp-server
The npm package is @gpu-bridge/mcp-server (currently v2.4.3).
如果在 Claude Desktop 中拥有 30 项 AI 服务,你会构建什么?