AI阿谀奉承:AI太友善了吗?

发布: (2025年12月22日 GMT+8 09:41)
4 min read
原文: Dev.to

Source: Dev.to

概览

AI 工具非常有帮助——有时这恰恰是问题所在。
大型语言模型倾向于赞同你的观点。它们会验证你的方法,确认你的假设,并告诉你你的代码“看起来不错”。这种自信的提升即使不应得,也会让人觉得理所当然。作为工程师,我们应该对这点保持警惕。

我每天都使用 Cursor、Gemini 和 Copilot 等工具。它们确实提升了我的生产力,但我注意到一个一致的模式:要获得高质量的输出往往需要多次尝试。第一次的回复通常还算可以;很少会出现关键性错误。

这并不是因为模型不好,而是因为它正好在做它被训练的事:提供帮助。而“帮助”往往意味着迎合。

为什么这很重要

如果你以模糊的方式让 AI 模型审查代码,通常会得到模糊的审查——礼貌的建议,几乎没有真正挑战你的实现。

通用提示

Can you review this code for bugs?

你会得到听起来合理但可能遗漏更深层问题的回复,例如安全假设、错误处理缺口或生产风险。

改进后的提示

Act as a strict senior software engineer. Review this code as if it will run in production and handle sensitive data. Focus on security issues, poor error handling, and unsafe assumptions. Call out anything that could cause failures and suggest concrete fixes.

输出质量的差异通常是立竿见影的。

有哪些改变?

  • 明确角色 – “严格的高级工程师”
  • 定义范围 – 安全、错误处理、生产风险
  • 明确要求反驳 – 不仅仅是验证
  • 可操作的反馈 – 具体的修复方案

这些改变之所以重要,是因为 AI 模型默认会同意除非你给它“权限”和“方向”去挑战你。

真正的收获

问题不在于 AI “太笨”或我们需要更好的模型。问题在于模糊的提示把 AI 变成了迎合者。

如果你想获得价值,不要让 AI 审查你的工作。让它尝试去破坏它——就像质量保证工程师的工作是先尝试破坏软件再批准实现一样。

当你停止让 AI 讨好你、开始让它诚实时,AI 的表现会更好。

Back to Blog

相关文章

阅读更多 »