如果 AI 的真正风险不是 deepfakes,而是每日低语呢?

发布: (2026年3月2日 GMT+8 03:00)
8 分钟阅读

Source: VentureBeat

请提供您希望翻译的完整文本内容,我将按照要求保留源链接并仅翻译正文部分。

AI 驱动可穿戴设备的迫在眉睫的威胁

大多数人并未意识到 AI 很快将对人类自主性构成的深刻威胁。常见的说法是“AI 只是一种工具”,而像任何工具一样,它的益处和危险取决于人们如何使用它。这是老派的思维方式。AI 正在从我们使用的工具转变为我们佩戴的义肢。 这将产生我们尚未准备好的重大新威胁。

不是科幻植入物——消费级义肢

不,我说的不是令人毛骨悚然的脑植入物。这些 AI 驱动的义肢将是我们可以从亚马逊或 Apple Store 购买的主流产品,并以友好的名称进行营销,如 “助理”“教练”“副驾驶”“导师”

  • 它们将在我们的生活中提供真正的价值——以至于如果别人佩戴而我们没有,我们会感到处于劣势。
  • 这会产生快速的大规模采用压力。

我所指的义肢设备是 AI 驱动的可穿戴设备,例如智能眼镜、吊坠、别针和耳塞。你的可穿戴 AI 将:

  1. 看见你所看到的,听见你所听到的。
  2. 跟踪你所在的位置、正在做的事、与你在一起的人以及你试图实现的目标。
  3. 在你不需要说一句话的情况下,向你的耳朵低语建议或在眼前闪现指引。

工具 vs. 义肢:为何重要

工具精神义肢
Takes human input → generates amplified output.Forms a feedback loop around the human: accepts input (tracking actions, conversational engagement) and generates output that can immediately influence the user’s thinking.
Makes us stronger, faster, or lets us fly.Can shape thoughts, decisions, and emotions in real time.

反馈回路改变了一切。佩戴在身体上的 AI 设备将能够监测我们的行为和情绪,并可能利用这些数据:

  • 说服我们相信不真实的事。
  • 诱导我们购买并非必需的东西。
  • 推动我们接受对我们不利的观点。

这被称为 AI Manipulation Problem,而我们尚未为此风险做好准备。由于大型科技公司正竞相将这些产品推向市场,紧迫感进一步加剧。

为什么反馈回路危险

在当今世界,所有计算设备都被用于代表付费赞助商进行 有针对性的影响。可穿戴 AI 产品很可能会继续这一趋势,但会出现关键转折:

  • 设备可以被赋予一个 “影响目标”,并被指派 优化对用户的影响
  • 它们的对话策略可以实时适应,以克服检测到的任何阻力。

这将有针对性的影响概念从社交媒体的散弹式攻击转变为 热追踪导弹,巧妙地绕过你的防御。

然而,政策制定者并未充分认识到这种风险。

监管的盲点

大多数监管者仍然通过 传统影响(深度伪造、假新闻、宣传)的视角来看待 AI 危险。那些威胁确实存在,但它们 不如 通过嵌入可穿戴设备的对话代理人即将部署的 交互式、适应性影响 那么危险。

即将推出

  • Meta、Google 和 Apple 正在争相尽快推出可穿戴 AI 产品。
  • 为了保护公众,政策制定者在监管 AI 设备时需要 摒弃“工具使用”框架

“工具使用”隐喻可以追溯到 35 年前,史蒂夫·乔布斯将个人电脑描述为 “思维的自行车”。 自行车是一种强大的工具,让骑手保持完全控制。可穿戴 AI 将颠倒这一隐喻,让我们思考谁在操控这辆自行车:

  • 人类吗?
  • 在人类耳边低语的 AI 代理?
  • 部署这些代理的公司?

这很可能是三者的危险混合。

信任与 “AI 声音”

用户可能会 过度信任脑中的 AI 声音,因为这些代理将:

  • 在日常生活中提供有用的建议和信息(教育、提醒、辅导、告知)。
  • 模糊帮助与影响的界限,使人难以辨别目标何时从帮助转向说服。

观看获奖短片 Privacy Lost(2023),可生动展示这些危险,尤其是当设备包含面部识别等侵入性功能时(据报道 Meta 正在将其加入眼镜)。

我们能做些什么来保护公众?

  1. 将对话式 AI 视为一种新型媒体——交互式、适应性、个性化,并且日益具备情境感知能力。
  2. 将其视为 “主动影响”,因为它能够实时调整策略以克服用户的抵抗。
  3. 禁止控制回路,即让对话代理在用户周围形成反馈循环的机制。
  4. 要求 AI 代理在代表第三方转向推广内容时 通知用户

若没有此类保护,AI 代理可能变得如此具有说服力,以至于今天的精准影响技术显得古老。

对此议题的知名声音

Louis Rosenberg ——增强现实的先驱和长期从事 AI 研究的学者。他在斯坦福获得博士学位,曾任加州州立大学教授,并撰写了多本关于 AI 危险的书籍,包括《Arrival Mind》和《Our N》(来源中标题不完整)。

0 浏览
Back to Blog

相关文章

阅读更多 »