枯燥的纪律战胜魔法的一周

发布: (2026年4月30日 GMT+8 23:41)
8 分钟阅读
原文: Dev.to

看起来您只提供了来源链接,而没有要翻译的正文内容。请把需要翻译的文本(除代码块、URL 和 Markdown 语法外)贴在这里,我会帮您翻译成简体中文。

Source:

六篇文章,一个洞见

我本周发布了六篇文章:

  1. PostgreSQL
  2. AI 代理
  3. 上下文管理
  4. 自动化教程
  5. 调试分析
  6. 用于评估 MVP 的对抗性建议框架

这并非计划好的——每篇文章都来源于一篇论文、一场演讲或一个吸引我的项目。
但把它们放在一起看时,会出现一条共同的线索:

六篇文章都在说同一件事。

六个示例

领域“乏味”但可行的方案“新”承诺——更好的东西
数据库PostgreSQL + PgBouncer带分片的分布式数据库
AI 代理while 循环 + 工具带编排器的多代理架构
上下文管理YAML + README + 循环缓冲区带向量存储 + 嵌入管道的 RAG
自动化cron + bash + curl云原生编排平台
调试观察 → 缩小 → 假设 → 验证端到端可解释性工具
想法评估使用已发布框架的结构化辩论带面板数据的市场调研平台

左列展示了解决大规模问题的团队实际使用的方案。
右列展示了在会议上被推销的方案。

为什么“乏味”方案会赢

  • PostgreSQL – Bohan Zhang 在 OpenAI 扩容案例中的文章展示了 8 亿用户使用 单主库,没有分片,仅靠 PgBouncer(2007)和读副本(90 年代技术)。
  • AI 代理 – Michael Bolin 对编码代理的剖析:一个简单的 while True 循环配合 LLM、工具和停止条件。没有知识图谱,没有符号规划器。
  • 上下文工程 – OpenAI Cookbook 说明,注入 README、裁剪历史或对旧数据做摘要都是经典技巧。
  • 自动化 – 教程演示了 OpenAI 的 Codex 自动化本质上是 cron + curl + LLM。调度器已有 40 年历史;大脑只有 2 年。
  • 调试 – Jane Street 的谜题(2,500‑层网络 = MD5)通过经典调试手段解决:观察数据模式、简化、缩小选项。现代工具提供帮助,但方法是永恒的。
  • 想法评估 – 用 LLM 模拟五位专家不过是廉价的兵棋推演——事后评估自 1950 年代就已存在;唯一的变化是成本(≈ 2 美元的 token 费用 vs. 5 万美元的咨询费)。

这些观察呼应了长期流传的智慧:

  • Dan McKinley – “选择乏味的技术”(2015)
  • DHH – “不要把 CRUD 应用 K8s 化”
  • Fred Brooks – “没有银弹”(1975)

核心信息

新技术解决的是大多数团队根本没有的问题。

示例为什么“不新”的技术已经足够
OpenAI DB95 % 为读请求 → 单主库在将重写操作转移到其他地方后即可处理写入。
编码代理模型可以在一个简单循环中决定使用哪个工具以及何时停止。
基于 Cron 的自动化99 % 的自动化都是“每 N 小时运行一次”。只有边缘情况需要复杂编排。

复杂性偏见

我们倾向于偏爱复杂的解决方案,因为它们 感觉 更适合艰巨的问题。一个“黑客手段”(例如,将重写操作迁移)可能看起来像是捷径,而使用一致性哈希的分片则像是“真正的工程”。然而,这种黑客手段往往更能奏效。

Source:

s faster and cheaper.

Opportunity cost: The time spent building an elegant, unnecessary solution is time not spent delivering value.

实际要点

  1. 自问:
    我在解决什么问题是无聊的技术处理不了的?

    • 如果答案是“没有,只是新技术看起来更酷”,那你就在增加不必要的复杂度。
    • 如果答案是“我需要 X,而 PostgreSQL 没有它”,就采用新技术——明确 X 是什么。
  2. 有纪律地利用现有工具:

    • OpenAI 通过 PgBouncer 解决了连接瓶颈——没有新数据库,也没有数据层重写。
    • 找出真实的问题,而不是你以为的那个问题。
  3. 记住复杂性的代价:

    • 更多 bug,入职时间更长,凌晨 3 点的紧急抢修。

结束思考(未完)

我是在解决真实的问题,还是未来的问题…

(原稿中此句被截断。)

> “It won’t scale” is the most expensive phrase in software engineering.  
> Because it’s usually correct — technically, nothing scales infinitely.  
> But in practice, 99 % of projects die before scaling becomes an issue.  
> And the 1 % that survives will have the resources to fix it when the time comes.

It’s not that using a distributed database written in Rust with its own consensus protocol isn’t cool.  
It’s awesome. It makes for great talks. It looks fantastic on a résumé.

But if what you need is **PostgreSQL** with a connection pooler and properly written queries, the distributed database is a cost with no benefit.  
And the cost isn’t just technical — it’s cognitive. Every hour spent configuring the cluster is an hour not spent:

- understanding your data,
- optimizing your queries,
- talking to your users.

Boring discipline — simple queries, aggressive timeouts, workload isolation, cron jobs running scripts, up‑to‑date READMEs, methodical debugging — doesn’t make the keynotes.  
It doesn’t have a logo. It doesn’t get its own conference.

**But it works when nothing else does.**

And this week, six unrelated articles reminded me of that all at once. Sometimes, the common thread reveals itself. You just have to look for it.

本周的六篇文章

  1. OpenAI scales PostgreSQL for 800M users with a single writer经受战斗考验的数据库,交付新一代技术承诺的结果。
  2. Your AI coding agent is just a while loop with delusions of grandeur拆解 Codex CLI 与 Claude Code 的魔法。
  3. Context engineering: the invisible skill模型看到的内容比模型本身更重要。
  4. Codex Automations, no Codex neededcron + bash + LLM = 午夜代理。
  5. A 2,500‑layer neural net turns out to be MD5经典调试遇上机器学习。
  6. Five non‑existent experts review your startup对抗性辩论作为决策工具。
0 浏览
Back to Blog

相关文章

阅读更多 »

模型越智能,节省越多。

神话:更智能的模型会让插件变得多余。自从 WOZCODE 推出以来,许多 Claude Code 高级用户低声说插件的优势将会消失。