ChatGPT 终于 知道 ‘strawberry’ 中有多少个 ‘R’,但仍然会犯自信的错误
Source: 9to5Google
ChatGPT 的自信错误与 “草莓” 测试

自信的错误——或者说是谎言——是大型语言模型在 AI 聊天机器人中常见的问题,ChatGPT 的一个缺点是它经常会误算单词 “strawberry” 中字母 “R” 出现的次数。OpenAI 在此问题上大肆宣传时,回复中也指出了许多其他自信的错误。
尽管 AI 聊天机器人已有所改进,但最大的失误之一仍是这些“工具”会自信地向你撒谎的频率。如果信息错误,聊天机器人不会察觉;如果你指出错误,AI 可能会坚持己见,继续给出错误答案并坚称自己是对的。这常被视为这些工具的危险之一,此外它们消耗大量资源,也让人极度烦恼。
一个常见的例子是 OpenAI 的 ChatGPT 被问及单词 “strawberry” 中字母 “R” 出现了多少次。
相当长的一段时间里,询问 ChatGPT 会得到错误答案,它经常争辩说 “strawberry” 这个词 不 包含三个 “R”。其他 AI 模型也出现了同样的问题。
今天,OpenAI 在 X/Twitter 上发布 自豪地宣称,“终于”,ChatGPT 能正确回答这个问题。另一个常见的卡点提示是 “我今天想洗车,但洗车场只有 50 米远。我应该走过去还是开车去?”——ChatGPT 常常建议步行,尽管这显然在逻辑上有问题。
事实证明,这两个问题现在在 ChatGPT 中已经可以得到正确答案,但有人猜测这可能是硬编码的解决方案。许多对 OpenAI 帖子的回复展示了聊天机器人在相同逻辑上再次失误的例子。例如,“cranberry 中有多少个 r”经常得到答案 “单词 ‘cranberry’ 有 1 个 ‘R’”,这显然是错误的。
在 AI 聊天机器人中使用硬编码解决方案并不新鲜,但当根本问题仍未解决时,看到 OpenAI 炫耀这种“修复”还是有点讽刺——以一种反乌托邦的方式。
更多关于 AI 的内容
- OpenAI 推出 GPT‑5.5,提升上下文理解,支持 Plus 及更高版本
- Google 更新的五角大楼协议使用 Gemini 进行“任何合法政府用途”,包括机密数据
- ChatGPT 更新削减“尴尬”,降低拒答率
FTC: 我们使用可产生收入的自动联盟链接。 更多信息。