印度的新社交媒体规则:在三小时内删除非法内容,自动检测非法 AI 内容

发布: (2026年2月16日 GMT+8 06:35)
3 分钟阅读
原文: Slashdot

Source: Slashdot

新规则概览

印度收紧了对社交媒体内容的监管,特别是针对人工生成和篡改的材料,以遏制错误信息和深度伪造的快速传播。2024 年 2 月 10 日,政府依据现行法律发布了新规,要求社交媒体公司:

  • 三小时 内响应印度当局的下架请求。
  • 明显标注 AI 生成的内容。
  • 实施措施阻止用户发布非法材料。

这些规则将此前的 36 小时期限缩短至三小时,构成了“显著收紧”的执法时限。

合规要求

  • 24 小时监控中心:平台必须投入全天候监控,将执法责任从用户转移到平台本身。
  • 自动化检测工具:公司需部署能够检测并阻止非法 AI 生成内容的自动化系统。
  • 法律责任:识别、删除和执法的责任落在科技公司身上,如果未在规定时间内采取行动,可能会失去法律豁免权。

“识别、删除和执法的责任落在科技公司身上,如果未在规定时间内采取行动,可能会失去法律豁免权。” – Nikhil Pahwa,MediaNama 创始人

批评与担忧

批评者警告称,这一新制度可能导致世界最大民主国家的审查力度加大,而该国拥有超过十亿的互联网用户。

  • 透明度报告显示,2024 年因政府请求被封锁的 28,000 多个 URL
  • Prasanto K. Roy,一位驻德里的技术分析师,将该制度形容为“或许是任何民主国家中最极端的下架制度”,并指出在缺乏广泛自动化和最小人工监督的情况下,合规几乎不可能。他还提醒,目前可靠且防篡改的 AI 生成内容标注技术仍在研发中。

国际背景

DW 报道称,印度已加入一系列考虑对 16 岁以下儿童实施社交媒体禁令 的国家之列。印度年轻人对此表示不满,并已在寻找规避方式。

来源

0 浏览
Back to Blog

相关文章

阅读更多 »