6 个高级 MCP 工作流,适用于高级用户
Source: Dev.to
我们已经在标准集成上达到了饱和点。每个开发者和高级用户都能感受到这种摩擦:你在一个窗口里使用强大的大模型,在另一个窗口里操作数据库,在第三个窗口里使用创意工具。于是你花了一半的时间在这些孤岛之间手动复制‑粘贴,充当 API 的中转。
模型上下文协议(Model Context Protocol,MCP)本应通过标准化连接来解决这个问题。然而,大多数用户只停留在基础——连接本地文件系统或一个简单的数据库。他们错过了让 MCP 不仅仅是数据管道,而是整个操作系统神经系统的架构灵活性。
本指南超越了 MCP 的 “Hello World”。我们将构建能够让不同系统——Blender、n8n、Flowise,甚至 “封闭花园” 的 ChatGPT——相互对话的工作流。最终得到的是一套完整的自动化代理,全部基于当前生态系统构建。
约束与变通方案
约束 – 标准集成需要在工具之间手动复制‑粘贴。
变通方案 – 使用专用的口述工具(例如 Voicy)作为通用输入楔子。它将语音转为文本(支持 50 多种语言),并直接将提示键入目标应用。
针对 Windows 高级用户
- 将光标聚焦在 Claude Desktop 或 Cursor 的输入框内。
- 按 Windows + H。
- 口述你的提示。
设置清单
前置条件
- 已安装 Blender。
- Python 3.10 或更高(
python --version)。 - 已安装
uv包管理器。
安装(Blender MCP 插件)
- 下载 Blender MCP 源代码(
addon.py文件)。 - 打开 Blender → Edit > Preferences > Add‑ons。
- 点击 Install from Disk 并选择
addon.py。 - 在视口按 N 打开侧边栏,找到 MCP 选项卡。
- 点击 “Connect to MCP Server” 以初始化端口(默认 9876)。跳过此步骤会导致服务器保持沉默。
配置
创建或编辑 mcp_config.json,内容如下:
{
"mcpServers": {
"blender": {
"command": "uvx",
"args": ["blender-mcp", "connect", "--port", "9876"]
}
}
}
使用以下命令运行桥接:
uvx blender-mcp connect --port 9876
工作流实战(Blender)
你可以下达自然语言指令,例如:
- “创建一个被漂浮的香蕉环绕的猴子 3D 模型。”
- “让香蕉围绕头部旋转 360 度。”
MCP 服务器会把这些英文指令翻译成 Blender Python API 调用,从而实现 语义化 3D 工作流,无需手动操作顶点。
架构概览(n8n + 向量记忆)
存储层
一个 n8n 工作流触发 MCP 工具,连接到 Pinecone 索引(例如命名空间 “memory”)。
向量化
当你提示 “记住我需要在周日之前完成 MCP 课程” 时,文本会使用 OpenAI 嵌入模型进行向量化。
Upsert
自定义工具 call_n8n_workflow 负责 upsert(更新/插入)操作。主 MCP 服务器将数据库写入委托给专用的子工作流。
用户体验
- 提示: “保存到记忆。”
- 查询: “我这个周末需要完成什么?”
search_memory 工具检索相关向量并返回完整上下文。
n8n 工作流结构
触发器
- MCP Server Trigger 节点启动流程。
交接
- 通过 Call Workflow 节点调用次级工作流(例如 “MCP Pic Generation”)。此分离将触发逻辑与重计算分开。
API 请求(图像生成)
- 在子工作流内部,HTTP Request 节点调用图像生成 API(OpenAI、Flux、Replicate 等)。
- 提示: 对于 OpenAI,务必仔细构造 JSON body,指定
prompt、size(如1024x1024)等字段。
数据转换
- API 返回 Base64 字符串。使用 Convert to File 节点将其转为二进制图像。
存储
- 将生成的文件上传至云服务提供商(例如 Google Drive)。
结果示例
提示: “生成一张猫咪坐在窗台上的图片。”
输出: 图像已存入 Google Drive,供后续使用。
高级扩展
将端点切换为 Runway Gen‑3、Google Veo 或任意 Replicate 模型。链式请求:生成脚本 → 通过 ElevenLabs 生成音频 → 通过 Veo 生成视频 → 合成——全部由 IDE 中的单条文本指令触发。
Webhook 代理变通方案
步骤实现
- 在 ChatGPT 中 创建自定义 GPT。
- 定义一个新的 Action,将负载发送到指定 URL。
- 使用空白模式模板;GPT 将把负载 POST 到你的 webhook。
桥接(n8n)
- 添加一个 Webhook 节点(POST),接收来自 ChatGPT 的提示。
- 连接 AI Agent 节点处理请求。
- 将自定义 MCP 客户端工具挂载到代理上。
- 最后使用 Respond to Webhook 节点把答案返回给 ChatGPT。
这会引入一定的延迟,但解锁了 ChatGPT 的 “神模式”,使其能够通过 n8n 隧道访问本地文件、Blender 或数据库。
Flowise 集成
- 打开你的 chatflow 设置,找到目标 API 端点的 cURL 命令。
- 在 n8n 中创建 HTTP Request 节点并粘贴该 cURL 命令;标题和主体会自动填充。
- 将硬编码的
"question"值替换为动态表达式,例如{{$json.chatInput}}。
用例
模块化智能:大脑分布在最适合各自任务的工具上(LLM 负责推理,Blender 负责 3D,n8n 负责编排)。这种可组合的 AI 方法取代了静态脚本。
结论
上面详述的工作流——自动化 3D 软件、链式多媒体生成 API、以及构建持久记忆层——标志着向 可组合 AI 的转变。通过结合 Python、n8n、少量 API 密钥以及模型上下文协议,你可以构建出如魔法般的应用。
要点: 只要你创建服务器,就掌握了能力。所需的原料已经在你的数字冰箱里。进入开发者模式,编写服务器,连接不可能,并通过改变环境行为来学习。