새 법에 따라 테크 기업은 48시간 내에 유해 이미지를 삭제해야 합니다

발행: (2026년 2월 19일 오전 09:55 GMT+9)
7 분 소요

Source: BBC Technology

Tech platforms would have to remove intimate images that have been shared without consent within 48 hours, under a proposed UK law.
제안된 영국 법에 따라 기술 플랫폼은 동의 없이 공유된 친밀 이미지를 48시간 이내에 삭제해야 합니다.

Getty Images: 스마트폰을 손에 든 젊은 여성.

Proposed Legislation

제안된 입법

The amendment to the Crime and Policing Bill—currently moving through the House of Lords—aims to treat intimate image abuse with the same severity as child sexual abuse material (CSAM) and terrorist content. Failure to comply could result in fines of up to 10 % of a company’s global sales or the blocking of its services in the UK.
**범죄 및 치안 법안(Crime and Policing Bill)**에 대한 개정안은 현재 상원에서 논의 중이며, 친밀 이미지 남용을 아동 성착취물(CSAM) 및 테러 콘텐츠와 동일한 중대 범죄로 취급하려는 목적을 가지고 있습니다. 이를 위반할 경우 기업의 전 세계 매출 **10 %**까지 벌금이 부과되거나 영국 내 서비스 차단 조치를 받을 수 있습니다.

Key Provisions

주요 조항

  • 48‑hour removal deadline for non‑consensual intimate images.
    동의 없는 친밀 이미지에 대한 48시간 삭제 기한.
  • Victims need to flag an image only once, rather than contacting each platform separately.
    피해자는 각 플랫폼에 별도로 연락하는 대신 이미지를 한 번만 신고하면 됩니다.
  • Platforms must block re‑uploads of removed images.
    플랫폼은 삭제된 이미지의 재업로드를 차단해야 합니다.
  • Guidance for internet service providers to block access to sites hosting illegal content, targeting rogue websites outside the reach of the Online Safety Act.
    불법 콘텐츠를 호스팅하는 사이트에 대한 접근을 차단하도록 인터넷 서비스 제공업체에 지침을 제공하며, 온라인 안전법(Online Safety Act)의 적용 범위 밖에 있는 악성 웹사이트를 대상으로 합니다.

Impact on Victims

피해자에 대한 영향

Women, girls, and LGBT people are disproportionately affected by Intimate Image Abuse (IIA). A government report (July 2025) found that young men and boys are often targeted for financial sexual extortion (“sextortion”), where victims are asked to pay to keep images from being shared online.
여성, 소녀, 그리고 LGBT 사람들은 친밀 이미지 남용(IIA)의 영향을 불균형적으로 많이 받고 있습니다. **정부 보고서(2025년 7월)**에 따르면, 청년 남성 및 소년들이 금전적 성착취(‘섹스트러션’)의 표적이 되는 경우가 많으며, 피해자는 이미지를 온라인에 유포되지 않도록 금액을 지불하도록 요구받습니다.

A Parliamentary report (May 2025) highlighted a 20.9 % increase in reports of intimate image abuse in 2024.
**국회 보고서(2025년 5월)**는 2024년에 친밀 이미지 남용 신고가 20.9 % 증가했다고 강조했습니다.

Government and Expert Reactions

정부 및 전문가 반응

“A welcome and powerful move… rightly places the responsibility on tech companies to act.” – Janaya Walker, interim director of the End Violence Against Women Coalition
“환영받고 강력한 조치… 기술 기업에게 행동 책임을 올바르게 부여한다.” – Janaya Walker, End Violence Against Women Coalition 임시 이사

Speaking on BBC Breakfast, the Prime Minister said the rule would mean a victim “doesn’t have to do a sort of whack‑a‑mole chasing wherever this image is next going up.” He added that tech companies are already under a duty for terrorist material, so the mechanism “can be done” and should be pursued with the same vigour.
BBC Breakfast에서 총리는 이 규정이 피해자가 “이미지가 어디에 다시 올라가든 사냥꾼처럼 뒤쫓을 필요가 없게 만든다”고 말했습니다. 그는 기술 기업이 이미 테러 자료에 대한 의무를 지고 있기 때문에 이 메커니즘은 “실행 가능”하며 동일한 강도로 추진되어야 한다고 덧붙였습니다.

Sir Keir stated the law would be enforced by fines and other measures yet to be determined, noting he does not expect prison sentences for tech executives.
Sir Keir는 이 법이 아직 정해지지 않은 벌금 및 기타 조치로 시행될 것이며, 기술 경영진에게 징역형을 기대하지는 않는다고 밝혔습니다.

Technology Secretary Liz Kendall said: “The days of tech firms having a free pass are over… no woman should have to chase platform after platform, waiting days for an image to come down.”
기술 장관 Liz Kendall는 “기술 기업이 자유롭게 행동하던 시대는 끝났다… 어떤 여성도 플랫폼을 옮겨 다니며 이미지가 내려가기를 며칠씩 기다려야 하지 않는다”고 말했습니다.

Supporting Reports

지원 보고서

  • Government report (July 2025)Digital violence, real‑world harm: evaluating survivor‑centric tools for intimate image abuse in the age of generative AI
    정부 보고서(2025년 7월)디지털 폭력, 현실 세계의 해악: 생성 AI 시대에 친밀 이미지 남용에 대한 생존자 중심 도구 평가
  • Parliamentary report (May 2025)Intimate image abuse: evidence and recommendations
    국회 보고서(2025년 5월)친밀 이미지 남용: 증거와 권고사항

Context and Recent Developments

맥락 및 최근 전개

The announcement follows the government’s standoff with X in January, when the AI tool Grok was used to generate images of real women in very little clothing. The functionality was subsequently removed for users.
이 발표는 1월에 정부가 X와 벌인 대립 이후에 나온 것으로, AI 도구 Grok가 실제 여성들의 매우 노출된 옷차림 이미지를 생성하는 데 사용되었습니다. 해당 기능은 이후 사용자에게서 차단되었습니다.

0 조회
Back to Blog

관련 글

더 보기 »