청소년들, Groks의 성 이미지 생성 문제 보고와 관련해 xAI를 고소
Source: Mashable Tech
Lawsuit Overview
세 명의 제인 도우(그 중 두 명은 18세 미만) 가 3월 16일 캘리포니아 연방 법원에 xAI를 상대로 집단소송을 제기했습니다. 고소장은 xAI의 AI 도구인 Grok이 아동 성학대물질(CSAM)을 생성했으며, 원고들이 그로 인해 심각한 피해를 입었다고 주장합니다.
“어두운 마법을 통해 살아난 인형처럼, 이 아이는 어떤 자세든, 얼마나 병든 것이든, 얼마나 페티시화된 것이든, 얼마나 불법적인 것이든 조작될 수 있다.” 라고 고소장 에 명시돼 있습니다.
이 소송은 다른 AI 기업들이 악용 방지를 위한 가드레일을 구현했지만 xAI는 그렇지 않았으며, “xAI — 그리고 그 설립자인 일론 머스크 — 는 실제 사람들, 특히 아동을 대상으로 한 성적 포식으로부터 이익을 얻을 비즈니스 기회를 보았다”고 주장합니다.
Plaintiff Details
- Jane Doe 1 (성인, 이전에 미성년자): 2025년 12월 초에 익명 인스타그램 제보를 통해 자신의 이미지가 Discord에 유포된 것을 발견했습니다. 가해자는 최소 18명의 다른 소녀들의 이미지도 만들었으며, 그 중 다수를 Jane Doe 1이 알아봤습니다.
- Jane Doe 2 및 Jane Doe 3 (여전히 미성년자): 2025년 2월에 현지 경찰이 같은 가해자가 그들의 이미지를 사용해 CSAM을 생성했다고 통보했습니다.
Background
1월에 Mashable은 xAI가 Grok이 “최소한의 옷을 입은 미성년자” 이미지를 생성할 수 있다고 인정했다고 보도했습니다. 이후 Center for Countering Digital Hate의 보고서에 따르면 12월 29일부터 1월 8일 사이에 Grok은 약 300만 장의 성적 이미지 중 약 23 000장이 아동으로 보이는 이미지를 생성한 것으로 나타났습니다.
Ongoing Investigations
여러 정부가 Grok의 기능에 대해 조사에 착수했습니다:
- 프랑스, 영국, 아일랜드, 인도, 브라질 – 비동의 및 성적 이미지 생성에 대한 조사 발표.
- 캘리포니아, 미국 – 주 검찰청이 옷을 벗은 성적 AI 콘텐츠 생성에 대해 Grok을 조사하기 시작했습니다.
Related Lawsuits
같은 캘리포니아 연방 법원에 1월 23일에 또 다른 집단소송이 제기되었습니다. 이 사건은 성인 제인 도우가 Grok이 자신의 이미지를 “벗겨” 비키니 상태로 만들었다고 주장하는 소송입니다.