当眼见不再可信,deepfakes 永远改变了互联网
Source: Dev.to
在人类历史的大部分时间里,证据很简单:如果你亲眼看到某件事,它很可能是真的。
如果你听到熟悉的声音,那一定是一个真实的人。
如果有视频存在,那一刻就已经发生。
早期的互联网继承了这些假设。摄像头不仅捕捉现实——它们还对其进行验证。录制是证据,截图解决争论,视频通话建立信任……如今,这个时代已经结束。技术不仅颠覆了互联网,更颠覆了对现实的验证本身。
The quiet collapse of “proof”
深度伪造并不是轰轰烈烈地出现的。起初它们笨拙——口型不同步、眼神怪异、到处都是伪影。我们笑着把它们当作好奇的玩意儿分享,认为它们只是玩具。
但工具的进步速度超过了我们的社会直觉。现在:
- 语音克隆只需几秒;一个短音频片段就能复现语调、节奏和情感细微差别。
- 视频生成不再需要好莱坞的预算。
- 实时面部替换在视频通话中已成为基本功能,而非科幻。
结果并非混乱,而是未知。真正的危险不是人们会相信所有信息,而是他们根本不知道该相信什么。
当证据变得模糊时
想象一下,你收到:
- 一段你们CEO宣布裁员的视频。
- 一通来自家人的电话,要求紧急的经济帮助。
- 一段泄露的录音,声音和举止与某人完美匹配。
仅在十年前,验证还很直接。如今即使是专家有时也会犹豫。这在各处产生了一种默认的合理否认状态:
- 真实视频可能被当作假视频驳回。
- 假视频可能被当作真实。
真相变得可协商、具情境性、部落化。证据不再决定性,而变成政治工具。这种转变不需要大规模的恶意意图——只需足够可信的噪声。
为什么这是一位开发者的问题(不管我们喜不喜欢)
将深度伪造归结为政策、媒体素养或“恶意行为者”问题很诱人,但深度伪造本质上是一个软件问题。它们之所以出现,是因为我们不断地为以下目标进行优化:
- 更好的模型
- 更低的延迟
- 更高的保真度
- 更便捷的获取方式
- 更少的限制
这些在单独来看都是良好的工程目标,但它们的组合导致了一个真实性不再仅凭人类感知即可辨别的世界。大多数开发者并未有意导致这种结果,但意图并不能改变其影响。我们构建的系统在生成“现实”方面表现卓越,却几乎无法证明其真实性。
没有人谈论的非对称性
制作一个令人信服的假冒品每年都变得更容易,而证明某事是真实的则越来越困难。这种不对称性很重要:
- 攻击者只需成功一次。
- 防御者每次都需要确定性。
- 平台无法以内容生成的速度进行事实核查。
- 事实核查有时不准确,且人在滚动时无法分析元数据。
这些条件使得错误信息、欺诈和操纵拥有结构性优势,即使没有人完全信任他们所看到的内容。
永久怀疑的心理代价
当人们停止信任证据时,他们也会停止信任机构。这会导致部落主义和更加两极分化的世界。当一切都可能是假的或仅部分真实时,话语会变得情绪化:
- 论点从事实转向身份认同。
- 这种侵蚀蔓延到法院、选举、企业、市场以及个人关系。
讽刺的是,本应连接我们的技术却让我们被不确定性所强化的信念泡沫所孤立。
能重新建立真实性吗?
技术响应正在出现:
- 媒体的加密签名
- 硬件级来源追踪
- 内容真实性框架
- 水印
这些可以提供帮助,但单独并不能解决核心问题。问题不仅是技术层面的;它是信任缺口。验证必须变得无形、自动化,并被文化所理解——就像 HTTPS 取代 HTTP,用户无需思考它一样。只要没有实现这一点,深度伪造和有害的片面真相将继续超前于防御手段,而社会适应总是落后于技术能力。
不安的问题
开发者必须问自己:仅仅因为我们能够生成与真实无法区分的现实,这是否应该成为默认?这并不是要阻止进步;而是要认识到,没有防护措施的这种能力会以我们并不总能预见的方式重塑社会。
深度伪造不仅改变了互联网——它改变了人类判断何为真实的方式。一旦这条界限模糊,重新划定它就变得极其困难。