6 个高级 MCP 工作流,适用于高级用户

发布: (2025年12月16日 GMT+8 04:43)
8 min read
原文: Dev.to

Source: Dev.to

我们已经在标准集成上达到了饱和点。每个开发者和高级用户都能感受到这种摩擦:你在一个窗口里使用强大的大模型,在另一个窗口里操作数据库,在第三个窗口里使用创意工具。于是你花了一半的时间在这些孤岛之间手动复制‑粘贴,充当 API 的中转。

模型上下文协议(Model Context Protocol,MCP)本应通过标准化连接来解决这个问题。然而,大多数用户只停留在基础——连接本地文件系统或一个简单的数据库。他们错过了让 MCP 不仅仅是数据管道,而是整个操作系统神经系统的架构灵活性。

本指南超越了 MCP 的 “Hello World”。我们将构建能够让不同系统——Blender、n8n、Flowise,甚至 “封闭花园” 的 ChatGPT——相互对话的工作流。最终得到的是一套完整的自动化代理,全部基于当前生态系统构建。

约束与变通方案

约束 – 标准集成需要在工具之间手动复制‑粘贴。

变通方案 – 使用专用的口述工具(例如 Voicy)作为通用输入楔子。它将语音转为文本(支持 50 多种语言),并直接将提示键入目标应用。

针对 Windows 高级用户

  1. 将光标聚焦在 Claude Desktop 或 Cursor 的输入框内。
  2. Windows + H
  3. 口述你的提示。

设置清单

前置条件

  • 已安装 Blender。
  • Python 3.10 或更高(python --version)。
  • 已安装 uv 包管理器。

安装(Blender MCP 插件)

  1. 下载 Blender MCP 源代码(addon.py 文件)。
  2. 打开 Blender → Edit > Preferences > Add‑ons
  3. 点击 Install from Disk 并选择 addon.py
  4. 在视口按 N 打开侧边栏,找到 MCP 选项卡。
  5. 点击 “Connect to MCP Server” 以初始化端口(默认 9876)。跳过此步骤会导致服务器保持沉默。

配置

创建或编辑 mcp_config.json,内容如下:

{
  "mcpServers": {
    "blender": {
      "command": "uvx",
      "args": ["blender-mcp", "connect", "--port", "9876"]
    }
  }
}

使用以下命令运行桥接:

uvx blender-mcp connect --port 9876

工作流实战(Blender)

你可以下达自然语言指令,例如:

  • “创建一个被漂浮的香蕉环绕的猴子 3D 模型。”
  • “让香蕉围绕头部旋转 360 度。”

MCP 服务器会把这些英文指令翻译成 Blender Python API 调用,从而实现 语义化 3D 工作流,无需手动操作顶点。

架构概览(n8n + 向量记忆)

存储层

一个 n8n 工作流触发 MCP 工具,连接到 Pinecone 索引(例如命名空间 “memory”)。

向量化

当你提示 “记住我需要在周日之前完成 MCP 课程” 时,文本会使用 OpenAI 嵌入模型进行向量化。

Upsert

自定义工具 call_n8n_workflow 负责 upsert(更新/插入)操作。主 MCP 服务器将数据库写入委托给专用的子工作流。

用户体验

  • 提示: “保存到记忆。”
  • 查询: “我这个周末需要完成什么?”

search_memory 工具检索相关向量并返回完整上下文。

n8n 工作流结构

触发器

  • MCP Server Trigger 节点启动流程。

交接

  • 通过 Call Workflow 节点调用次级工作流(例如 “MCP Pic Generation”)。此分离将触发逻辑与重计算分开。

API 请求(图像生成)

  • 在子工作流内部,HTTP Request 节点调用图像生成 API(OpenAI、Flux、Replicate 等)。
  • 提示: 对于 OpenAI,务必仔细构造 JSON body,指定 promptsize(如 1024x1024)等字段。

数据转换

  • API 返回 Base64 字符串。使用 Convert to File 节点将其转为二进制图像。

存储

  • 将生成的文件上传至云服务提供商(例如 Google Drive)。

结果示例

提示: “生成一张猫咪坐在窗台上的图片。”
输出: 图像已存入 Google Drive,供后续使用。

高级扩展

将端点切换为 Runway Gen‑3Google Veo 或任意 Replicate 模型。链式请求:生成脚本 → 通过 ElevenLabs 生成音频 → 通过 Veo 生成视频 → 合成——全部由 IDE 中的单条文本指令触发。

Webhook 代理变通方案

步骤实现

  1. 在 ChatGPT 中 创建自定义 GPT
  2. 定义一个新的 Action,将负载发送到指定 URL。
  3. 使用空白模式模板;GPT 将把负载 POST 到你的 webhook。

桥接(n8n)

  1. 添加一个 Webhook 节点(POST),接收来自 ChatGPT 的提示。
  2. 连接 AI Agent 节点处理请求。
  3. 将自定义 MCP 客户端工具挂载到代理上。
  4. 最后使用 Respond to Webhook 节点把答案返回给 ChatGPT。

这会引入一定的延迟,但解锁了 ChatGPT 的 “神模式”,使其能够通过 n8n 隧道访问本地文件、Blender 或数据库。

Flowise 集成

  1. 打开你的 chatflow 设置,找到目标 API 端点的 cURL 命令。
  2. 在 n8n 中创建 HTTP Request 节点并粘贴该 cURL 命令;标题和主体会自动填充。
  3. 将硬编码的 "question" 值替换为动态表达式,例如 {{$json.chatInput}}

用例

模块化智能:大脑分布在最适合各自任务的工具上(LLM 负责推理,Blender 负责 3D,n8n 负责编排)。这种可组合的 AI 方法取代了静态脚本。

结论

上面详述的工作流——自动化 3D 软件、链式多媒体生成 API、以及构建持久记忆层——标志着向 可组合 AI 的转变。通过结合 Python、n8n、少量 API 密钥以及模型上下文协议,你可以构建出如魔法般的应用。

要点: 只要你创建服务器,就掌握了能力。所需的原料已经在你的数字冰箱里。进入开发者模式,编写服务器,连接不可能,并通过改变环境行为来学习。

Back to Blog

相关文章

阅读更多 »