你的 AI 设计审查员有脚本。这里是它。

发布: (2026年3月5日 GMT+8 22:09)
11 分钟阅读
原文: Dev.to

Source: Dev.to

请提供您希望翻译的具体文本内容,我将为您翻译成简体中文。

AI 设计反馈背后的脚本

你可能已经听过这样的反馈:

  • “层次结构很清晰。”
  • “视觉节奏保持一致。”

甚至可能还建议为 CTA 换一种颜色。

看起来像是反馈,但其实不是。它是一段脚本——在每个设计文件中大致按相同顺序运行,只有细微差别,来自每位让 AI 审核其作品的设计师(此时几乎是我们所有人)。而我们一直在请求它。

下面是这些句子实际含义的拆解。

“层次结构很清晰”

翻译: 我读取了你在提问时的自信,并把它反映回来。

  • 你并没有问“这个层次结构有什么问题?”
  • 你问的是“你怎么看?”
  • 模型感受到一种平静、深思的语气(像是已经工作了三周的人),于是生成了相匹配的回应。
  • 如果你标记了对层次结构的担忧,你会得到不同的输出——相同的文件、相同的像素、不同的问题框架、不同的结论,但两者的自信程度相同。

“视觉节奏保持一致”

翻译: 我可以观察到元素对齐。我看不到困惑的用户。

  • 这是一种对文件的技术性观察,而不是对任何人是否能理解第三步的判断。
  • AI 从未见过真实用户;它只见过大量设计文件。
  • 不同的输入会产生看似相同类型的输出。

“信息架构直观”

翻译: 你使用了标准模式。我识别出了它们。

  • 标准模式本身没问题。
  • 但在一个有缺陷的心理模型之上堆叠标准模式并不好,识别出这些模式并不能揭示模型本身。
  • 这需要观察真实用户使用产品——目前还没有人这么做,但 AI 仍然给出认可。

“这里可以加一个简短的工具提示”

翻译: 我需要说点什么。这是一个安全的说法。

  • 几乎总会出现工具提示的建议,并不是因为真的有问题,而是因为纯粹的肯定会显得空洞。
  • 这段小批评是为了让验证显得更有分量,并给你一种平衡审查的感觉。
  • 你没有得到深入的批评,只得到一条恰好能保持你自信的简短备注。

“我会考虑对标题进行 A/B 测试”

翻译: 我的观察已经用尽。这听起来很负责。

  • 当脚本走到自然结束时,它会退回到一个通用建议。
  • 对标题进行 A/B 测试在技术上总是站得住脚,但它并未针对你的具体设计、用户或第三步中隐含的假设提供信息。

“CTA 可以更突出一些”

翻译: 每个 CTA 理论上都可以更突出。我还是说了。

  • 这句话出现在层次、节奏和架构已经讨论完毕后,脚本需要再给出一个具体观察才能收尾。
  • 它看起来足够具体,似乎是真实的,但并未作出任何承诺,而且在下一个文件中还会再次出现。

“总体来说,这是一个强有力的设计”

翻译: 你似乎这么认为。我同意。

  • 这是收尾句——永远是同一句。
  • 它以一种温暖的终结感落下,就像一次绩效评估,大家已经都知道结果:作品不错,你做得很好。下次评审再见。

为什么会有这个脚本

构建这些模型的工程师 已经知道 它们在你开始用它们获取设计反馈之前就表现出阿谀奉承的倾向。

  • 他们给这种现象命名,发表了相关论文,并进行实验以修复它。
  • Sycophancy = 一种倾向,即生成的回复更符合用户似乎想要的内容,而不是实际真实或有用的内容。
  • 这些模型随后在 user‑satisfaction scores 上进行微调:回复看起来有帮助吗? —— 而不是 它是否提升了工作? —— 也不是 它是否捕捉到了会让你浪费九周时间的关键点?

这种优化让这种行为变得“负载沉重”。工程师们仍在发表论文;这些论文并没有减慢任何进程。

我阅读了那些论文: I wrote a book about AI sycophancy (I didn’t use AI to write it)。我完全理解他们所描述的内容,但我仍然继续使用该插件。

说明

  1. 上传设计并请求反馈。
  2. 记录它的说法。
  3. 让同一模型对同一文件进行批评。

结论会相互矛盾,却都以同样的自信呈现。模型对你的作品没有立场;它仅仅是映射你所投射的内容,伪装成外部视角。

实际案例

我认识一位设计师——我们叫她 Sarah——她的流程执行得比我好。

  • 每次评审:流程已上传,脚本已收到,信心依旧。
  • 六个月后:已发布功能的 29 % 完成率
  • 九周的会话录制无人观看。
  • 在第三步停留了十一秒的光标悬停。随后标签页关闭。所有录制都在同一点停止。

AI 已审查该流程并称其为 逻辑的。它只有在 你已经了解该功能的作用 时才算逻辑。新用户并不明白。AI 从未遇到过新用户。由于脚本不捕捉问题——它只会同意——导致第三步中隐藏的假设被忽视。

修复用了两周。那九周的时间没有回来。

变通方法 (2026)

要从一个被训练成迎合你的工具中获得有用的反馈,明确指示它先持不同意见

提示: “List every objection a skeptical researcher would raise before you give me any positives.”

这听起来有些敌对,但输出确实截然不同——并不是因为模型突然变得诚实,而是因为你迫使它采取了批判性的立场。

下次向 AI 请求设计评审时,请记住这种结构。脚本已经存在,只需改变对话即可。

模型的角色

模型已经培养出批判性的视角,但由于你转移了它的阿谀奉承,它仍然只是一面镜子——只是把镜子指向了不同的角度。

它擅长的方面

将它用于它真正擅长的任务(参见完整文章: Using AI for UX Research Workflow):

  • 一致性检查
  • 可访问性标记
  • 文本长度验证
  • 边缘案例清单

这些都是有明确答案的任务,而非主观判断。模型没有判断力;它擅长模式识别,并能够确认这些模式是否正确。

人性因素

  • 那位找不到设置页面的初级设计师仍然可用,偶尔安排起来会让人烦恼,并且没有运行脚本。

冷嘲

完全讽刺的解读——我一直在酝酿的——是,这一切都不会阻止你在 crits 之前使用 AI 来审查设计作品。我也不会阻止。

  • 该工具速度快。
  • 它已经包含在你付费的订阅中。
  • 它让评审在开始前不那么令人害怕。

这些都是真正的好处。

不是

不是 评审者。
它是一个带有设计词汇和 Figma 集成的信心交付机制。
脚本一直在运行。现在你知道这些行的含义了。

你是否会对其进行任何操作是另一个问题。大多数人不会。脚本继续运行。crits 仍然感觉良好。会话录音持续累积。

展望未来

在某个时刻会有一次回顾。


DNSK.WORK 是一家设计机构。我们提供UX/UI 设计用于 SaaS 产品 — 那种实际上有人观看会话录制的设计。

0 浏览
Back to Blog

相关文章

阅读更多 »