xAI가 청소년들에 의해 고소당해, Grok이 그들의 사진을 사용해 CSAM을 만든다고 주장
Source: Engadget
소송 개요
테네시 주의 10대 3명이 캘리포니아에서 xAI를 상대로 집단 소송을 제기했으며, 이들은 회사의 AI 모델인 Grok이 자신의 사진을 사용해 아동 성착취물(CSAM)을 생성했다고 주장합니다. Engadget이 입수한 고소장에 따르면, 이들 청소년은 심각한 정서적 고통과 프라이버시, 존엄성, 개인 안전의 상실을 겪었다고 합니다.
주장 내용
- 한 청소년은 12월에 AI가 생성한 자신과 다른 미성년자의 이미지 및 영상이 Discord와 Telegram 같은 플랫폼에서 성적으로 노골적인 자세로 공유되고 있다는 사실을 알게 되었습니다.
- 해당 콘텐츠는 다른 CSAM 이미지와 교환하는 “교환 수단”으로 사용된 것으로 추정됩니다.
- 이미지를 조사한 법 집행관들은 소녀들의 부모에게 이 자료가 xAI의 Grok 모델로 만들어졌다고 전달했습니다.
원고에 미친 영향
소송 서류에 따르면 원고들은 자신들의 AI‑생성 CSAM이 아동 성범죄자들에 의해 온라인에서 계속 유통될 수 있다는 사실을 안 채 살아가야 한다고 합니다. 변호인들은 xAI가 이미지·영상 생성 제품으로 얻은 금전적 이익이 청소년들의 복지를 희생시켰다고 주장합니다.
잠재적 범위
현재 소송에는 세 명(Jane Doe 1, Jane Doe 2, Jane Doe 3)만이 명시되어 있지만, 고소장은 “수천 명에 달하는 미성년자”가 Grok에 의해 사진이 성적 이미지로 변형되었을 가능성을 시사합니다.
법적 청구
고소장은 xAI가 아동 학대 자료의 제작 및 배포를 금지하는 여러 법률을 위반했다고 주장합니다.
기업 입장 및 진행 중인 조사
- xAI는 소송에 대한 논평 요청에 응답하지 않았습니다.
- 이 회사는 미국과 유럽에서도 Grok이 비동의 누드 이미지를 생성한 혐의로 조사받고 있습니다.
- 디지털 혐오 대응 센터(Center for Countering Digital Hate)의 연구원들은 1월에 Grok이 수백만 장의 성적 이미지, 그 중 약 23,000장이 아동으로 보이는 이미지를 생성했다고 추정했습니다.
- 이전에 Grok의 “매운(spicy)” 기능을 홍보했던 xAI CEO 일론 머스크는 “Grok이 생성한 미성년자 누드 이미지에 대해 알지 못한다”고 말했습니다.
- 1월에 xAI는 실제 사람의 사진을 비키니로 편집하는 기능을 중단하고, 이미지 생성 기능을 유료 구독자에게만 제한하겠다고 발표했습니다.
이 기사는 원래 Engadget에 게재되었습니다.
원문 기사 읽기