通过路标的 Prompt Injection

发布: (2026年2月11日 GMT+8 20:03)
2 分钟阅读

Source: Schneier on Security

Abstract

具身人工智能(AI)承诺通过基于感知和行动的常识推理,在数据稀缺的机器人车辆系统中处理边缘案例,能够超出训练分布进行泛化并适应新颖的真实世界情境。然而,这些能力也带来了新的安全风险。本文提出 CHAI(Command Hijacking against embodied AI),一种利用大型视觉语言模型(LVLM)多模态语言解释能力的全新提示式攻击类别。CHAI 在视觉输入中嵌入欺骗性的自然语言指令(如误导性标志),系统性地搜索令牌空间,构建提示词典,并引导攻击者模型生成视觉攻击提示。我们在四个 LVLM 代理上评估了 CHAI——无人机紧急降落、自动驾驶、空中目标跟踪以及真实机器人车辆。实验表明,CHAI 始终优于最先进的攻击方法。通过利用下一代具身 AI 系统的语义和多模态推理优势,CHAI 强调了亟需超越传统对抗鲁棒性的防御措施。

News article

0 浏览
Back to Blog

相关文章

阅读更多 »