MCP 承诺解决 Agentic AI 的数据问题。以下仍然缺失的内容。
Source: Dev.to
(未提供需要翻译的正文内容。如需翻译,请粘贴或提供文章的其余文本。)
问题不在于 MCP,而在于它之上的缺失
MCP 解决了 连接 问题,但它带来了新的挑战:
工具过载
Microsoft 研究人员发现,在 7,000 多台 MCP 服务器中,有 775 种工具出现命名冲突——最常见的是 search。OpenAI 建议将工具列表控制在 20 以下,而 GitHub 的 MCP 单独就提供了约 40 种工具。当 LLM 面临过多工具时,它难以挑选出正确的工具,性能随之下降。
上下文匮乏
即使拥有巨大的上下文窗口,LLM 也无法高效处理原始数据库转储。研究表明,顶级 MCP 工具返回的平均 token 数为 557,766,足以让大多数模型不堪重负。代理需要的是 相关 数据,而不是 全部 数据。
昂贵的工具调用循环
每一次工具调用都是一次往返:LLM → 客户端 → 工具 → 客户端 → LLM。每个循环都要携带完整的工具列表和对话历史。对于多步骤任务,这会迅速消耗大量 token。
缺乏智能路由
MCP 将工具连接到模型,但到底该使用 哪个 工具由谁决定?目前这个决定权交给了 LLM 本身,而在面对数十种选项时,这并不是一个理想的方案。
Source: …
缺失的一层:语义路由
如果在 LLM 与 MCP 工具之间增加一层:
- 在选择工具前理解意图
- 自动将查询路由到正确的数据源
- 返回聚焦的数据,而不是大量 token
- 智能处理多意图查询
这就是 OneConnecter 的理念。
工作原理
flowchart TD
User["User: \"weather London Bitcoin price gold futures\""] --> IntentSplitter
IntentSplitter["Intent Splitter\n(Detects 3 separate intents)"] --> SplitArray["[\"weather London\", \"BTC price\", \"gold futures\"]"]
SplitArray --> SemanticRouter
SemanticRouter["Semantic Router\n(Routes each to the right agent)"] --> Agents
Agents --> Combined["Combined, structured response"]
LLM 永远不需要直接面对 40+ 工具;它只看到 一个端点,该端点会智能地将请求路由到经过精选的、专门的代理。
实际结果
- 78 % 令牌减少 相比原始网页搜索(语义缓存)
- 亚秒级路由 到正确的数据代理
- 干净、结构化的响应 — 而非 HTML 转储或令牌洪流
示例查询通过系统:
Query: "NVDA stock price market cap"
Response:
- NVDA stock price: $142.50 (+2.3%)
- NVDA market cap: $3.48T
Time: 1.2 s total (including intent split + parallel agent calls)
意图拆分器甚至会 复制实体(NVDA)到子查询中——这是正则表达式拆分器容易遗漏的。
架构概览
┌─────────────────────────────────────────────────────────────┐
│ OneConnecter │
├─────────────────────────────────────────────────────────────┤
│ Intent Splitter │ Qwen3 4B on Modal (~950 ms) │
│ Semantic Router │ Vector embeddings + similarity search │
│ Data Agents │ Weather, Crypto, Stocks, Commodities │
│ Semantic Cache │ Reduces redundant API calls │
│ MCP Interface │ Works with Claude, LangChain, etc. │
└─────────────────────────────────────────────────────────────┘
OneConnecter 兼容 MCP,您可以将其接入 Claude Desktop、LangChain 或任何 MCP 客户端,以解决原生 MCP 无法处理的问题。
为什么这很重要
业界谈论“上下文饥饿”和“工具空间干扰”,仿佛它们是未解决的问题。其实并非如此。解决方案是智能路由层。
MCP 是基础设施。我们现在需要的是 编排——一种能够理解用户需求并获取正确数据的机制,而不会让大型语言模型负担过重。
试一试
OneConnecter 已上线,访问 oneconnecter.io。
早期接入的代理包括:
- 实时天气数据
- 加密货币价格
- 股票市场数据
- 商品期货
- 公司情报
- 每周持续发布更多代理
如果你正在构建代理系统并遇到上述瓶颈,欢迎与我联系。留下评论或在 Discord 找到我。
接下来
- RAG Knowledge Agent — 经过策划的科学/学术数据并附有引用
- 更多数据代理 — 航班、餐厅、新闻、职位
- 更好的缓存 — 对常见查询进行预测性预取
目标不是取代 MCP,而是让它在生产环境中真正可用。
在 Techne Labs 构建 OneConnecter。请关注我们如何解决这个问题。
你在使用代理式 AI 和实时数据时遇到了哪些问题?在评论中告诉我吧。