监督委员会称 Meta 需要制定 AI 生成内容的新规则

发布: (2026年3月10日 GMT+8 18:00)
4 分钟阅读
原文: Engadget

Source: Engadget

背景

监督委员会正敦促 Meta 对 AI 生成内容的规则进行彻底改革。委员会的最新建议源于去年一段 AI 生成的视频,该视频声称展示了 2025 年以色列‑伊朗冲突期间海法受损的建筑。该片段累计观看次数超过 70 万次,由一个冒充新闻机构的账号发布,实际由菲律宾运营。

在视频被举报后,Meta 拒绝删除该视频或添加“高风险”AI 标签——该标签本可表明内容是由 AI 创建或操控的。监督委员会推翻了 Meta 不添加标签的决定,指出此案例凸显了公司现行 AI 政策的多项不足。

“Meta 必须采取更多措施应对平台上欺骗性 AI 生成内容的蔓延,包括通过不真实或滥用的账号和页面网络,尤其是在公共利益事务上,让用户能够辨别真实与虚假,”委员会写道。随后,Meta 在委员会标记出“明显的欺骗信号”后,禁用了与该页面关联的三个账号。

委员会建议

专门的 AI 内容规则

  • 为 AI 生成内容设立独立规则,区别于错误信息政策。
  • 明确用户何时以及如何对 AI 内容进行标记。
  • 列出违反该规则的处罚措施。

标记改进

  • 修订当前的 “AI Info” 标签,委员会认为这些标签“既不够强大,也不够全面”,难以应对 AI 生成内容在冲突或危机期间的大规模和高速传播。
  • 减少对自我披露和不常进行的升级审查的依赖。

检测技术

  • 投资更为先进的检测工具,以可靠地对 AI 媒体(包括音频和视频)进行标记。
  • 确保对 Meta 自家工具生成的 AI 内容始终使用数字水印。

内部评估

  • 减少对第三方事实核查机构和“可信合作伙伴”的依赖。
  • 建立内部能力评估危害,尤其是在武装冲突期间。

Meta 的回应

Meta 尚未对监督委员会的决定作出立即评论。公司有 60 天的时间正式回应委员会的建议。

更广泛的背景

委员会的决定并非 Meta 处理 AI 内容的首次批评。此前,委员会曾两次将 Meta 的操控媒体规则形容为“前后不一”:

随着最新的中东冲突,这一问题变得更加紧迫。自本月初美国和以色列对伊朗发动袭击以来,社交媒体上病毒式传播的 AI 生成错误信息急剧上升(Rolling Stone 报道)。

委员会还暗示需要更广泛的行业合作,指出“行业需要在帮助用户辨别欺骗性 AI 生成内容方面保持一致,平台应对分享此类内容的滥用账号和页面采取措施”。

0 浏览
Back to Blog

相关文章

阅读更多 »