欧洲对隐私的新战争
Source: Hacker News
欧洲的新隐私战争
背景
“聊天控制”,正式名称为 儿童性侵害监管,最初由欧盟委员会于 2022 年提出。最初的草案要求电子邮件和即时通讯提供商扫描私人通信,甚至是端到端加密的通信,以检测儿童性侵害材料。虽然被宣传为打击可怕犯罪的工具,但批评者警告说,这可能成为普遍监视的蓝图,使国家和欧盟机构能够扫描每一条私人信息。公开咨询显示,超过 80 % 的受访者反对将此类义务适用于加密通信。
最近进展
2024 年 5 月,委员会重新提交了该提案。包括德国、波兰、奥地利和荷兰在内的多个成员国表示反对。丹麦在担任欧洲理事会轮值主席期间,起草了一个名为 “聊天控制 2.0” 的修订版本。新文本删除了强制在设备上检测的要求,使扫描对提供商而言变为“自愿”。
Coreper(常驻代表委员会),欧盟最有权力却最不为人知的立法机构,悄然批准了修订版,为理事会最早在 2024 年 12 月通过铺平了道路。数字权利活动家、前欧洲议会议员 Patrick Breyer 将此举描述为一种“欺骗性的手法”,绕过了有意义的民主辩论。
有问题的特征
- “自愿”大规模扫描 – 修订文本鼓励平台在长期基础上进行大规模扫描,这在之前仅被允许作为临时措施。
- 强制年龄验证 – 提案为应用商店和私人通讯服务引入强制性年龄验证系统,实际上禁止匿名通信。
专家批评
- 一封由 18 位欧洲网络安全和隐私领域领先学者签署的公开信警告称,该提案带来 高社会风险且对儿童的益处不明确。
- 信中指出,“自愿”扫描的范围扩大,包括对“诱导”行为的 AI 驱动分析。现有 AI 系统无法可靠地区分无害对话与虐待意图,导致大量误报。
- Patrick Breyer 强调,AI 无法可靠地区分调情、讽刺或无害的家庭聊天与犯罪诱导,这会制造一次数字猎巫行动,使整个社会都处于怀疑之中。
- 德国联邦警察报告称,现有的 大约一半的自愿报告与犯罪无关,而瑞士联邦警察估计 80 % 的机器报告内容并不违法。将扫描扩展到加密内容将显著增加这些误报风险。
法律和技术风险
- 妥协提案的 第 4 条 要求提供商实施“所有适当的风险缓解措施”,该条款可能被用来迫使加密通讯服务(如 WhatsApp、Signal、Telegram)在加密前进行设备端扫描。
- 电子前哨基金会 警告称,这将创建一个可能成为普遍的永久安全基础设施。Meta、Google 和 Microsoft 已经自愿扫描未加密内容;将其扩展到加密内容只需进行技术调整。
- “自愿”选项很快会因平台面临声誉、法律和市场压力而实际上变为强制。
- 影响是 全球性的:留在欧盟的平台将不得不扫描所有用户的对话,包括欧盟以外的用户,从而危及与欧盟居民聊天的任何人的隐私。
年龄验证担忧
- 批评者认为强制年龄验证 技术上不可行且本质上具有侵入性。实现方式将依赖生物特征和行为数据,增加对敏感个人信息的收集。
- 要求提供官方身份证件将排除数百万没有数字身份证或不愿提供此类文件的人,实际上终结了匿名的在线交流。
结论
虽然取消强制设备端检测是一个小幅改进,但修订后的 “聊天控制 2.0” 仍然使大规模、国家强制的私人通信监控常态化,并威胁到在线匿名性的消失。该提案依赖“自愿”扫描、AI 驱动的诱导检测以及强制年龄验证,带来了深远的隐私、安全和人权问题,这些问题远远超出欧盟的边界。