인도의 새로운 소셜 미디어 규칙: 불법 콘텐츠를 3시간 내에 삭제하고, 불법 AI 콘텐츠를 자동으로 감지
Source: Slashdot
새로운 규칙 개요
인도는 인공적으로 생성·조작된 자료를 특히 겨냥해 소셜 미디어 콘텐츠에 대한 규제를 강화했습니다. 이는 잘못된 정보와 딥페이크의 급속한 확산을 억제하기 위한 조치입니다. 2월 10일, 정부는 기존 법률에 따라 새로운 규칙을 통보했으며, 소셜 미디어 기업은 다음을 이행해야 합니다:
- 인도 당국의 삭제 요청에 3시간 이내에 응답할 것.
- AI‑생성 콘텐츠에 대해 눈에 띄게 라벨을 붙일 것.
- 사용자가 불법 자료를 게시하지 못하도록 방지 조치를 시행할 것.
이 규칙은 기존 36시간 기한을 3시간으로 단축하여 “강력한 규제 강화”를 의미합니다.
준수 요구사항
- 24시간 모니터링 센터: 플랫폼은 24시간 모니터링에 투자해 집행 책임을 사용자에서 플랫폼 자체로 이전해야 합니다.
- 자동 탐지 도구: 기업은 불법 AI‑생성 콘텐츠를 탐지·차단할 수 있는 자동화 시스템을 배치해야 합니다.
- 법적 책임: 식별·제거·집행의 책임이 기술 기업에 귀속되며, 정해진 시간 내에 조치를 취하지 않을 경우 법적 면책을 잃을 수 있습니다.
“식별, 제거 및 집행의 책임은 기술 기업에 있으며, 정해진 시간 내에 조치를 취하지 않을 경우 법적 면책을 잃을 수 있다.” – Nikhil Pahwa, MediaNama 설립자
비판 및 우려
비평가들은 이번 제도가 세계 최대 민주주의 국가인 인도에서 검열을 강화할 위험이 있다고 경고합니다. 인도는 인터넷 사용자가 10억 명이 넘습니다.
- 투명성 보고서에 따르면 2024년에 정부 요청으로 28,000개 이상의 URL이 차단되었습니다.
- 델리 기반 기술 분석가 Prasanto K. Roy는 이 제도를 “어느 민주주의에서도 가장 극단적인 삭제 체제일 가능성이 있다”고 평가했으며, “광범위한 자동화와 최소한의 인간 감독 없이는 거의 불가능하다”고 지적했습니다. 또한 그는 AI‑생성 콘텐츠에 대한 신뢰할 수 있는 변조 방지 라벨링 기술은 아직 개발 중이라고 경고했습니다.
국제적 맥락
DW는 인도가 16세 이하 아동을 위한 소셜 미디어 금지를 고려하는 국가 목록에 추가되었다고 보도했습니다. 젊은 인도인들은 이에 불만을 표시하고 이미 우회 방법을 찾고 있습니다.