如何扩展您的 LLM 使用

发布: (2025年11月29日 GMT+8 21:00)
5 min read

Source: Towards Data Science

为什么要扩展 LLM 使用

扩展已在三个阶段证明了其强大效果:

  • 预训练 – 更大的模型和更多的数据提升质量。
  • 后训练 – 监督式微调和 RLHF 提升指令遵循能力。
  • 推理时扩展 – “思考 token”(推理模型)提升输出质量。

同样的原理适用于 基于使用的扩展:你越高效地使用 LLM,生产力提升就越大。成功扩展的关键因素包括:

  • 足够的模型容量(足够的参数)。
  • 获取相关数据或提示。
  • 高效编排多个代理。

有价值的实际使用案例:

  • 自动化 Linear 任务,避免其闲置。
  • 快速交付来自销售电话的小功能请求。
  • 使用编码代理处理常规 UI 改进。

完成任务的门槛已经大幅降低。过去需要数小时专注调试的工作,现在只需提示 LLM(例如 Claude Sonnet 4.5)并在几分钟内审阅结果即可完成。

如何扩展 LLM 使用

并行编码代理

同时运行多个编码代理,使你能够一次处理多个任务。

  • 工作流: 使用 Git worktree 或独立分支来隔离每个代理的工作。
  • 工具: Cursor 代理、Claude Code,或任何代理式编码平台。
  • 示例: 在 Cursor 中编码主要功能的同时,将新来的 bug 报告路由到 Claude Code 进行自动分析和修复。通过将 Linear 任务复制到 Cursor(它通过 Linear MCP 读取),即可触发 bug 修复代理。

深度研究代理

深度研究功能(在 Gemini 3、OpenAI ChatGPT、Anthropic Claude 等平台可用)让你在专注其他工作时收集大量信息。

  • 使用场景: 研究目标市场细分(ICP)或探索新技术。
  • 流程: 将 ICP 细节粘贴到 Gemini 3,提供上下文,让代理生成简明报告。
  • 结果: 只需 20 分钟的深度研究即可产出充满可操作洞见的报告。

使用 n8n(或类似工具)实现自动化工作流

工作流自动化平台使你能够基于外部事件触发 LLM 动作。

  • 示例 1: 监控 Slack 频道的 bug 报告;自动启动 Claude Code 代理调查每个报告。
  • 示例 2: 汇总多个 API 的数据,喂给 LLM,并获取格式化的摘要。
  • 好处: 消除人工交接,使 LLM 持续保持生产力。

其他技术

  • 信息获取流水线: 结合网页抓取、向量搜索和 LLM 摘要,保持知识库最新。
  • 计划后台代理: 每晚运行代码审查或文档生成代理。
  • 动态资源分配: 在高峰期为高吞吐量代理扩展计算资源(GPU/CPU),空闲时缩减。

结论

通过运行并行编码代理、利用深度研究工具以及自动化工作流来扩展 LLM 使用,可显著提升工程师和组织的生产力。推动模型训练改进的同样扩展规律同样适用于我们 使用 这些模型的方式。通过更高效、并发的 LLM 交互编排,你可以在更短时间内完成更多任务,在 AI 增强的工作流中保持领先。

Back to Blog

相关文章

阅读更多 »