ChatGPT 终于 知道 ‘strawberry’ 中有多少个 ‘R’,但仍然会犯自信的错误

发布: (2026年4月29日 GMT+8 10:45)
4 分钟阅读
原文: 9to5Google

Source: 9to5Google

ChatGPT 的自信错误与 “草莓” 测试

自信的错误——或者说是谎言——是大型语言模型在 AI 聊天机器人中常见的问题,ChatGPT 的一个缺点是它经常会误算单词 “strawberry” 中字母 “R” 出现的次数。OpenAI 在此问题上大肆宣传时,回复中也指出了许多其他自信的错误。

尽管 AI 聊天机器人已有所改进,但最大的失误之一仍是这些“工具”会自信地向你撒谎的频率。如果信息错误,聊天机器人不会察觉;如果你指出错误,AI 可能会坚持己见,继续给出错误答案并坚称自己是对的。这常被视为这些工具的危险之一,此外它们消耗大量资源,也让人极度烦恼。

一个常见的例子是 OpenAI 的 ChatGPT 被问及单词 “strawberry” 中字母 “R” 出现了多少次。

相当长的一段时间里,询问 ChatGPT 会得到错误答案,它经常争辩说 “strawberry” 这个词 包含三个 “R”。其他 AI 模型也出现了同样的问题。

今天,OpenAI 在 X/Twitter 上发布 自豪地宣称,“终于”,ChatGPT 能正确回答这个问题。另一个常见的卡点提示是 “我今天想洗车,但洗车场只有 50 米远。我应该走过去还是开车去?”——ChatGPT 常常建议步行,尽管这显然在逻辑上有问题。

事实证明,这两个问题现在在 ChatGPT 中已经可以得到正确答案,但有人猜测这可能是硬编码的解决方案。许多对 OpenAI 帖子的回复展示了聊天机器人在相同逻辑上再次失误的例子。例如,“cranberry 中有多少个 r”经常得到答案 “单词 ‘cranberry’ 有 1 个 ‘R’”,这显然是错误的。

在 AI 聊天机器人中使用硬编码解决方案并不新鲜,但当根本问题仍未解决时,看到 OpenAI 炫耀这种“修复”还是有点讽刺——以一种反乌托邦的方式。

更多关于 AI 的内容

FTC: 我们使用可产生收入的自动联盟链接。 更多信息。

0 浏览
Back to Blog

相关文章

阅读更多 »

RAG简介

什么是模型?模型本质上是一个方程。例如 y = mx + c。在训练过程中,提供 x 和 y 的值。模型学习适当的值……