감독 위원회는 메타가 AI 생성 콘텐츠에 대한 새로운 규칙이 필요하다고 말한다

발행: (2026년 3월 10일 PM 07:00 GMT+9)
6 분 소요
원문: Engadget

Source: Engadget

배경

감독 위원회는 메타가 AI‑생성 콘텐츠에 관한 규칙을 전면 개편하도록 촉구하고 있습니다. 위원회의 최신 권고안은 2025년 이스라엘‑이란 분쟁 중 하이파의 파손된 건물을 보여준다고 주장한 AI‑생성 영상이 지난해 공유된 사건을 계기로 나왔습니다. 이 클립은 70만 회가 넘는 조회수를 기록했으며, 뉴스 매체인 척하는 계정이 올렸지만 실제로는 필리핀에서 운영되었습니다.

영상이 신고된 후 메타는 해당 영상을 삭제하거나 “고위험” AI 라벨을 추가하지 않았습니다. 이 라벨은 콘텐츠가 AI로 생성·조작되었음을 나타내는 것이었습니다. 위원회는 라벨을 추가하지 않은 메타의 결정을 뒤집으며, 이번 사안이 현재 메타의 AI 정책에 여러 가지 결함이 있음을 보여준다고 지적했습니다.

“메타는 플랫폼 내에서 기만적인 AI‑생성 콘텐츠가 확산되는 것을 방지하기 위해, 특히 공공 관심사와 관련된 경우에, 허위·남용 계정 및 페이지 네트워크를 포함한 조치를 더 강화해야 합니다. 사용자가 진짜와 가짜를 구분할 수 있도록 해야 합니다.”라고 위원회는 밝혔습니다. 위원회의 ‘명백한 기만 신호’ 제시 후 메타는 해당 페이지와 연결된 세 개의 계정을 결국 비활성화했습니다.

위원회 권고안

전용 AI‑콘텐츠 규칙

  • 허위 정보 정책과 별도로 AI‑생성 콘텐츠에 대한 별도 규칙을 만들 것.
  • 사용자가 AI 콘텐츠에 라벨을 붙여야 하는 시점과 방법을 명시할 것.
  • 규칙 위반에 대한 처벌 조치를 구체화할 것.

라벨링 개선

  • 현재의 “AI Info” 라벨을 개정할 것. 위원회는 이 라벨이 “규모와 속도가 큰 AI‑생성 콘텐츠, 특히 분쟁이나 위기 상황을 다루기에 충분히 견고하거나 포괄적이지 않다”고 평가했습니다.
  • 자체 공개와 드물게 이루어지는 고위험 검토에 대한 의존도를 낮출 것.

탐지 기술

  • 오디오와 비디오를 포함한 AI 미디어를 신뢰성 있게 라벨링할 수 있는 보다 정교한 탐지 도구에 투자할 것.
  • 메타 자체 도구로 만든 AI 콘텐츠에 디지털 워터마크를 일관되게 적용하도록 할 것.

내부 평가

  • 제3자 사실 확인 기관과 “신뢰 파트너”에 대한 의존도를 줄일 것.
  • 특히 무력 충돌 시 발생하는 피해를 평가할 내부 역량을 구축할 것.

메타의 입장

메타는 감독 위원회의 결정에 대해 즉각적인 논평을 하지 않았습니다. 회사는 위원회의 권고안에 공식적으로 답변할 수 있는 기간이 60일입니다.

더 넓은 맥락

이번 위원회의 결정은 메타의 AI 콘텐츠 처리에 대한 첫 번째 비판이 아닙니다. 메타는 이전에도 두 차례에 걸쳐 조작된 미디어 규칙을 “일관성 없고” “불합리하다”고 비판한 바 있습니다:

이 문제는 최근 중동 분쟁이 격화되면서 긴급성을 더하고 있습니다. 이번 달 초 미국과 이스라엘이 이란을 향해 공격을 시작한 이후, 소셜 미디어 전반에 걸쳐 바이럴 AI‑생성 허위 정보가 급증하고 있습니다 (Rolling Stone 보도).

위원회는 또한 “산업 전반이 사용자가 기만적인 AI‑생성 콘텐츠를 구분하도록 돕는 일관성을 확보해야 하며, 플랫폼은 그러한 출력을 공유하는 남용 계정 및 페이지를 처리해야 한다”고 제안하며, 보다 넓은 산업 협력을 암시했습니다.

0 조회
Back to Blog

관련 글

더 보기 »