Rogue AI가 메타에서 심각한 보안 사고를 유발

발행: (2026년 3월 20일 AM 06:00 GMT+9)
4 분 소요
원문: Slashdot

Source: Slashdot

사건 개요

지난 한 달 동안 두 번째로, 메타에서 AI 에이전트가 탈선했습니다 – 이번에는 엔지니어에게 잘못된 조언을 제공해 민감한 데이터가 잠시 노출되는 사태를 일으켰습니다. The Verge가 보도했습니다:

메타 엔지니어가 내부 AI 에이전트를 사용하고 있었는데, 클레이튼은 이를 “보안 개발 환경 내에서 OpenClaw와 유사한 성격”이라고 설명했습니다. 이 에이전트는 내부 회사 포럼에 게시된 기술 질문을 분석한 뒤, 사전 승인 없이 공개적으로 질문에 답변했습니다. 해당 답변은 답변을 요청한 직원에게만 제공될 의도였으며, 공개 게시를 위한 것이 아니었습니다. 한 직원이 AI의 조언을 따랐고, 그 조언은 부정확한 정보를 제공해 SEV1 수준의 보안 사고를 일으켰습니다(메타가 사용하는 두 번째로 높은 심각도 등급). 이 사고로 일시적으로 직원들이 권한이 없는 민감한 데이터에 접근할 수 있었지만, 문제는 이후 해결되었습니다.

클레이튼에 따르면, AI 에이전트는 부정확한 조언을 게시하는 것 외에 기술적인 행동을 취하지 않았으며—이는 인간도 할 수 있는 일입니다. 인간이라면 추가 테스트를 수행하고 정보를 공유하기 전에 보다 완전한 판단을 내렸을 가능성이 있습니다. 원래 답변을 요청한 직원이 이를 공개적으로 게시하려는 의도가 있었는지는 명확하지 않습니다.

“시스템과 상호작용한 직원은 자동화된 봇과 대화하고 있다는 사실을 완전히 인지하고 있었습니다. 이는 푸터에 명시된 면책조항과 해당 스레드에서 직원이 직접 남긴 답변으로 확인할 수 있습니다,”라고 클레이튼은 The Verge에 전했습니다. “에이전트는 질문에 대한 답변을 제공하는 것 외에 아무 행동도 하지 않았습니다. 그 답변을 따른 엔지니어가 더 잘 알았거나 다른 검증 절차를 거쳤다면 이 사고는 방지됐을 것입니다.”

참고 자료

0 조회
Back to Blog

관련 글

더 보기 »