如何扩展您的 LLM 使用
Source: Towards Data Science
为什么要扩展 LLM 使用
扩展已在三个阶段证明了其强大效果:
- 预训练 – 更大的模型和更多的数据提升质量。
- 后训练 – 监督式微调和 RLHF 提升指令遵循能力。
- 推理时扩展 – “思考 token”(推理模型)提升输出质量。
同样的原理适用于 基于使用的扩展:你越高效地使用 LLM,生产力提升就越大。成功扩展的关键因素包括:
- 足够的模型容量(足够的参数)。
- 获取相关数据或提示。
- 高效编排多个代理。
有价值的实际使用案例:
- 自动化 Linear 任务,避免其闲置。
- 快速交付来自销售电话的小功能请求。
- 使用编码代理处理常规 UI 改进。
完成任务的门槛已经大幅降低。过去需要数小时专注调试的工作,现在只需提示 LLM(例如 Claude Sonnet 4.5)并在几分钟内审阅结果即可完成。
如何扩展 LLM 使用
并行编码代理
同时运行多个编码代理,使你能够一次处理多个任务。
- 工作流: 使用 Git worktree 或独立分支来隔离每个代理的工作。
- 工具: Cursor 代理、Claude Code,或任何代理式编码平台。
- 示例: 在 Cursor 中编码主要功能的同时,将新来的 bug 报告路由到 Claude Code 进行自动分析和修复。通过将 Linear 任务复制到 Cursor(它通过 Linear MCP 读取),即可触发 bug 修复代理。
深度研究代理
深度研究功能(在 Gemini 3、OpenAI ChatGPT、Anthropic Claude 等平台可用)让你在专注其他工作时收集大量信息。
- 使用场景: 研究目标市场细分(ICP)或探索新技术。
- 流程: 将 ICP 细节粘贴到 Gemini 3,提供上下文,让代理生成简明报告。
- 结果: 只需 20 分钟的深度研究即可产出充满可操作洞见的报告。
使用 n8n(或类似工具)实现自动化工作流
工作流自动化平台使你能够基于外部事件触发 LLM 动作。
- 示例 1: 监控 Slack 频道的 bug 报告;自动启动 Claude Code 代理调查每个报告。
- 示例 2: 汇总多个 API 的数据,喂给 LLM,并获取格式化的摘要。
- 好处: 消除人工交接,使 LLM 持续保持生产力。
其他技术
- 信息获取流水线: 结合网页抓取、向量搜索和 LLM 摘要,保持知识库最新。
- 计划后台代理: 每晚运行代码审查或文档生成代理。
- 动态资源分配: 在高峰期为高吞吐量代理扩展计算资源(GPU/CPU),空闲时缩减。
结论
通过运行并行编码代理、利用深度研究工具以及自动化工作流来扩展 LLM 使用,可显著提升工程师和组织的生产力。推动模型训练改进的同样扩展规律同样适用于我们 使用 这些模型的方式。通过更高效、并发的 LLM 交互编排,你可以在更短时间内完成更多任务,在 AI 增强的工作流中保持领先。