ChatGPT가 마침내 ‘strawberry’에 몇 개의 ‘R’이 있는지 알게 되었지만, 자신감 있는 실수는 여전히 남아 있다

발행: (2026년 4월 29일 AM 11:45 GMT+9)
5 분 소요
원문: 9to5Google

Source: 9to5Google

ChatGPT의 자신감 있는 실수와 “딸기” 테스트

자신감 있는 실수—또는 말 그대로 거짓말—은 AI 챗봇에 사용되는 대형 언어 모델의 흔한 문제이며, ChatGPT의 한 단점은 “strawberry”라는 단어에 “R” 글자가 몇 번 등장하는지를 자주 잘못 세는 것이었습니다. OpenAI가 이를 바로잡으려는 시도를 하면서도, 답변 속에서 다른 많은 자신감 있는 실수들이 지적되었습니다.

AI 챗봇이 많이 개선되었음에도 불구하고, 가장 큰 실수 중 하나는 이러한 “도구”가 여러분에게 자신 있게 거짓말을 하는 빈도입니다. 정보가 틀리면 챗봇은 이를 알아차리지 못하고, 사용자가 지적하면 AI는 고집을 부려 계속 틀린 답을 고집하면서 자신이 맞다고 주장합니다. 이는 이러한 도구들의 위험성으로 자주 강조되며, AI가 소비하는 막대한 자원 때문에 짜증을 유발하기도 합니다.

OpenAI의 ChatGPT와 관련된 흔한 예시가 “strawberry”라는 단어에 “R” 글자가 몇 번 나오는가 하는 질문입니다.

한동안 ChatGPT에 이 질문을 하면 잘못된 답을 내놓았고, 종종 “strawberry”라는 단어에 “R”이 세 번 사용되지 않는다며 주장했습니다. 다른 AI 모델들도 같은 문제에 봉착했습니다.

오늘, OpenAI가 X/Twitter에 “드디어” ChatGPT가 이 질문에 올바르게 답할 수 있다고 자랑했습니다. 또 다른 흔한 함정 프롬프트는 “오늘 차를 씻고 싶은데 세차장이 50 미터 떨어져 있어요. 걸어서 갈까요, 운전해서 갈까요?”였으며—ChatGPT는 논리적 모순이 명백함에도 불구하고 종종 걸어가라고 권했습니다.

실제로 지금은 두 경우 모두 ChatGPT에서 시도하면 정상적으로 동작하지만, 이것이 하드코딩된 해결책일 가능성이 있다는 의심이 있습니다. OpenAI 게시물에 달린 많은 댓글들은 챗봇이 같은 논리에서 여전히 실패하는 사례들을 보여줍니다. 예를 들어, “cranberry에 ‘r’이 몇 개 있나요”라는 질문에 대해 “‘cranberry’라는 단어에는 ‘R’이 1개 있습니다.”라는 답이 반복적으로 나오는데, 이는 틀린 답입니다.

AI 챗봇에 하드코딩된 해결책은 새로운 것이 아니지만, 문제의 근본 원인이 남아 있는 상황에서 OpenAI가 이 “수정”을 자랑하는 모습은 다소 디스토피아적인 웃음을 자아냅니다.

AI 관련 추가 소식

FTC: 우리는 수익을 창출하는 자동 제휴 링크를 사용합니다. 자세히.

0 조회
Back to Blog

관련 글

더 보기 »