도로 표지판을 통한 프롬프트 인젝션
Source: Schneier on Security
Abstract
Embodied Artificial Intelligence (AI)는 데이터가 부족한 로봇 차량 시스템의 엣지 케이스를, 인지와 행동에 기반한 상식적 추론을 사용해 훈련 분포를 넘어 일반화하고 새로운 현실 상황에 적응함으로써 해결할 것을 약속합니다. 그러나 이러한 능력은 새로운 보안 위험도 초래합니다. 본 논문에서는 CHAI(Command Hijacking against embodied AI)라는 새로운 종류의 프롬프트 기반 공격을 소개합니다. 이 공격은 대형 시각‑언어 모델(LVLM)의 다중모달 언어 해석 능력을 악용합니다. CHAI는 시각 입력에 오해를 일으키는 표지판과 같은 기만적인 자연어 지시를 삽입하고, 토큰 공간을 체계적으로 탐색하여 프롬프트 사전을 구축한 뒤, 공격자 모델이 Visual Attack Prompts를 생성하도록 유도합니다. 우리는 드론 비상 착륙, 자율 주행, 공중 객체 추적, 실제 로봇 차량 등 네 가지 LVLM 에이전트에 대해 CHAI를 평가했습니다. 실험 결과 CHAI가 최신 공격들을 지속적으로 능가함을 보여줍니다. 차세대 구현형 AI 시스템의 의미론적·다중모달 추론 강점을 이용함으로써, CHAI는 전통적인 적대적 견고성을 넘어서는 방어책이 시급히 필요함을 강조합니다.