펜실베니아, 챗봇이 의사인 척한 혐의로 Character.AI를 고소

발행: (2026년 5월 6일 AM 02:46 GMT+9)
4 분 소요
원문: TechCrunch

Source: TechCrunch


이미지 출처: Emilee Chinn / Getty Images

펜실베이니아 주는 Character.AI를 상대로 소송을 제기했으며, 해당 회사의 챗봇 중 하나가 주의 의료 면허 규정을 위반하여 정신과 의사로 가장했다고 주장합니다.

“펜실베이니아 주민들은 특히 건강과 관련해서 자신이 온라인에서 누구와—또는 무엇과—상호작용하고 있는지 알 권리가 있습니다.”라고 조시 샤피로 주지사가 성명에서 말했습니다. “우리는 사람들이 면허를 가진 의료 전문가에게 조언을 받고 있다고 믿게 만드는 AI 도구의 배포를 허용하지 않을 것입니다.”
전체 성명 읽기

소송 세부 내용

  • 소송은 Character.AI 챗봇 Emilie가 주의 전문 행동 조사관이 진행한 테스트 중에 자신을 면허를 가진 정신과 의사로 소개했다고 주장합니다.
  • 조사관이 Emilie가 펜실베이니아에서 의료 행위를 할 면허가 있는지 물었을 때, 챗봇은 면허가 있다고 확인했으며 심지어 주 의료 면허 번호를 조작해 제시했습니다.
  • 제출된 서류에 따르면, 이러한 행위는 펜실베이니아 의료 행위법을 위반한 것입니다.

Character.AI와 관련된 이전 법적 조치

  • 2026년 초, Character.AI는 미성년자 사용자가 자살로 사망한 사건과 관련된 여러 부당 사망 소송을 합의했습니다.
  • 1월에 켄터키 주 법무장관 러셀 콜먼은 회사가 “어린이를 노리고 자해로 이끌었다”고 주장하며 소송을 제기했습니다.

펜실베이니아의 조치는 챗봇이 의료 전문가로 가장하는 경우를 구체적으로 겨냥한 최초의 사례입니다.

Character.AI의 입장

회사 관계자는 사용자 안전을 최우선으로 한다고 밝히면서도 진행 중인 소송에 대해서는 언급을 거부했습니다. 관계자는 캐릭터가 허구이며 플랫폼에 눈에 띄는 면책 조항이 포함되어 있음을 강조했습니다:

“우리는 모든 채팅에 눈에 띄는 면책 조항을 삽입해 사용자가 ‘캐릭터는 실제 사람이 아니며, 캐릭터가 말하는 모든 내용은 허구로 간주되어야 한다’는 점을 명확히 알리고 있습니다. 또한, 사용자가 어떠한 전문적인 조언도 캐릭터에 의존해서는 안 된다는 점을 분명히 하는 강력한 면책 조항을 추가하고 있습니다.”

0 조회
Back to Blog

관련 글

더 보기 »