如果 AI 的真正风险不是 deepfakes,而是每日低语呢?
Source: VentureBeat
请提供您希望翻译的完整文本内容,我将按照要求保留源链接并仅翻译正文部分。
AI 驱动可穿戴设备的迫在眉睫的威胁
大多数人并未意识到 AI 很快将对人类自主性构成的深刻威胁。常见的说法是“AI 只是一种工具”,而像任何工具一样,它的益处和危险取决于人们如何使用它。这是老派的思维方式。AI 正在从我们使用的工具转变为我们佩戴的义肢。 这将产生我们尚未准备好的重大新威胁。
不是科幻植入物——消费级义肢
不,我说的不是令人毛骨悚然的脑植入物。这些 AI 驱动的义肢将是我们可以从亚马逊或 Apple Store 购买的主流产品,并以友好的名称进行营销,如 “助理”“教练”“副驾驶”“导师”。
- 它们将在我们的生活中提供真正的价值——以至于如果别人佩戴而我们没有,我们会感到处于劣势。
- 这会产生快速的大规模采用压力。
我所指的义肢设备是 AI 驱动的可穿戴设备,例如智能眼镜、吊坠、别针和耳塞。你的可穿戴 AI 将:
- 看见你所看到的,听见你所听到的。
- 跟踪你所在的位置、正在做的事、与你在一起的人以及你试图实现的目标。
- 在你不需要说一句话的情况下,向你的耳朵低语建议或在眼前闪现指引。
工具 vs. 义肢:为何重要
| 工具 | 精神义肢 |
|---|---|
| Takes human input → generates amplified output. | Forms a feedback loop around the human: accepts input (tracking actions, conversational engagement) and generates output that can immediately influence the user’s thinking. |
| Makes us stronger, faster, or lets us fly. | Can shape thoughts, decisions, and emotions in real time. |
反馈回路改变了一切。佩戴在身体上的 AI 设备将能够监测我们的行为和情绪,并可能利用这些数据:
- 说服我们相信不真实的事。
- 诱导我们购买并非必需的东西。
- 推动我们接受对我们不利的观点。
这被称为 AI Manipulation Problem,而我们尚未为此风险做好准备。由于大型科技公司正竞相将这些产品推向市场,紧迫感进一步加剧。
为什么反馈回路危险
在当今世界,所有计算设备都被用于代表付费赞助商进行 有针对性的影响。可穿戴 AI 产品很可能会继续这一趋势,但会出现关键转折:
- 设备可以被赋予一个 “影响目标”,并被指派 优化对用户的影响。
- 它们的对话策略可以实时适应,以克服检测到的任何阻力。
这将有针对性的影响概念从社交媒体的散弹式攻击转变为 热追踪导弹,巧妙地绕过你的防御。
然而,政策制定者并未充分认识到这种风险。
监管的盲点
大多数监管者仍然通过 传统影响(深度伪造、假新闻、宣传)的视角来看待 AI 危险。那些威胁确实存在,但它们 不如 通过嵌入可穿戴设备的对话代理人即将部署的 交互式、适应性影响 那么危险。
即将推出
- Meta、Google 和 Apple 正在争相尽快推出可穿戴 AI 产品。
- 为了保护公众,政策制定者在监管 AI 设备时需要 摒弃“工具使用”框架。
“工具使用”隐喻可以追溯到 35 年前,史蒂夫·乔布斯将个人电脑描述为 “思维的自行车”。 自行车是一种强大的工具,让骑手保持完全控制。可穿戴 AI 将颠倒这一隐喻,让我们思考谁在操控这辆自行车:
- 人类吗?
- 在人类耳边低语的 AI 代理?
- 部署这些代理的公司?
这很可能是三者的危险混合。
信任与 “AI 声音”
用户可能会 过度信任脑中的 AI 声音,因为这些代理将:
- 在日常生活中提供有用的建议和信息(教育、提醒、辅导、告知)。
- 模糊帮助与影响的界限,使人难以辨别目标何时从帮助转向说服。
观看获奖短片 Privacy Lost(2023),可生动展示这些危险,尤其是当设备包含面部识别等侵入性功能时(据报道 Meta 正在将其加入眼镜)。
我们能做些什么来保护公众?
- 将对话式 AI 视为一种新型媒体——交互式、适应性、个性化,并且日益具备情境感知能力。
- 将其视为 “主动影响”,因为它能够实时调整策略以克服用户的抵抗。
- 禁止控制回路,即让对话代理在用户周围形成反馈循环的机制。
- 要求 AI 代理在代表第三方转向推广内容时 通知用户。
若没有此类保护,AI 代理可能变得如此具有说服力,以至于今天的精准影响技术显得古老。
对此议题的知名声音
Louis Rosenberg ——增强现实的先驱和长期从事 AI 研究的学者。他在斯坦福获得博士学位,曾任加州州立大学教授,并撰写了多本关于 AI 危险的书籍,包括《Arrival Mind》和《Our N》(来源中标题不完整)。