AI가 27년 동안 숨겨진 12개의 OpenSSL 버그를 발견했습니다. 이제 코드 리뷰만으로는 충분하지 않습니다.
Source: Dev.to
이번 주 AI‑보안 대화를 촉발한 세 가지 사건
모두 며칠 사이에 일어났습니다:
- AISLE의 AI 시스템이 OpenSSL에서 12개의 제로데이 취약점을 독립적으로 발견했으며, 여기에는 1998년부터 존재해 온 버그도 포함되었습니다.
- Anthropic은 Claude Code Security를 출시했으며, 이는 프로덕션 오픈소스 코드베이스에서 500개 이상의 취약점을 밝혀냈습니다.
- 인기 AI‑에이전트 플랫폼 OpenClaw가 중요한 RCE 익스플로잇에 의해 붕괴되어 사용자 신뢰가 크게 떨어졌습니다.
이 세 가지는 하나의 이야기를 전합니다: AI가 양쪽 모두에서 보안 루프에 진입했습니다.
- 인간이 놓치는 것을 찾아냅니다.
- 인간이 아직 상상하지 못한 공격 표면도 만들고 있습니다.
AISLE’s AI System & OpenSSL Zero‑Days
- AI가 12개 제로데이 취약점을 OpenSSL의 2026년 1월 보안 릴리스 공개 이전에 발견했습니다.
- 가장 심각한 것은 CVE‑2025‑15467: CMS 메시지 파싱에서 발생하는 스택 버퍼 오버플로, CRITICAL (CVSS 9.8, NIST). 유효한 키 자료 없이 원격으로 악용될 가능성이 있습니다.
- 12개 버그 중 3개는 1998–2000년부터 존재해 왔습니다.
“AI 취약점 발견은 사이버 보안을 예상보다 빠르게 변화시키고 있다.” – Bruce Schneier
Implications
- 이 버그들을 찾은 동일한 시스템을 여러분의 코드베이스를 포함한 어떤 코드베이스에도 적용할 수 있으며, 패치하기 전에 먼저 발견될 수 있습니다.
- AI‑지원 보안 검토는 이제 선택 사항이 아니라, 먼저 발견하는 팀과 먼저 패치하는 팀을 구분하는 기준이 됩니다.
Anthropic의 Claude Code Security
- Claude Opus 4.6 기반.
- 결과: 생산 환경 오픈‑소스 코드베이스에서 500개 이상의 취약점이 발견되었습니다 – 인간 전문가 검토 수십 년을 견뎌온 버그들.
AI가 인간 검토를 능가하는 이유
- 인간 리뷰어는 피로, 가정에 대한 맹점, 그리고 컨텍스트 전환 비용에 시달립니다.
- AI 시스템은 전체 dependency graph(의존성 그래프)를 컨텍스트에 유지하고, 대규모 호출 체인 전반에 걸쳐 추론할 수 있습니다.
실용적인 시사점
2026년에 AI‑지원 보안 검토 없이 코드를 배포한다면, 이는 이론적인 문제가 아니라 알려진 맹점을 가지고 있다는 의미입니다.
OpenClaw 붕괴
- 몇 주 만에 0에서 100 000+ GitHub 스타로 성장했습니다.
- 오스트리아 개발자 Peter Steinberger가 “수평 로컬‑우선 런타임 직원”으로 구축했으며, Claude Code와 같은 도구와는 근본적으로 다릅니다.
아키텍처 구분
| 기능 | Claude Code | OpenClaw |
|---|---|---|
| 실행 모델 | 수직 샌드박스 – 호출되어 작업을 수행하고 종료됩니다. | 지속적인 백그라운드 런타임 – 24시간 운영되며 지속적인 작업을 처리합니다 (예: 자정에 받은 편지함을 정리하고, 매주 금요일에 Discord를 요약). |
| 접근 범위 | 제한적이며 단기간 접근만 가능합니다. | API 토큰, 파일 시스템, 코드 실행 등에 대한 광범위하고 지속적인 접근 권한을 가지며, 본질적으로 사용자의 전체 디지털 생활에 접근합니다. |
- 이 지속적이고 광범위한 접근 모델은 OpenClaw를 강력하게 만들었으며, 실패했을 때는 재앙이 되었습니다.
CVE‑2026‑25253 – 치명적인 원격 코드 실행 취약점.
- Koi 연구원들은 ClawHub 마켓플레이스에서 341개의 악성 스킬을 발견했습니다 (가짜 암호화폐 거래 봇, Atomic macOS Stealer 및 기타 정보 탈취 악성코드를 배포한 생산성 도구 등).
“OpenClaw의 실패는 기술적 실패가 아닙니다. 신뢰 모델 실패입니다.” – Sabrina Ramonov
AI‑에이전트 구축자를 위한 핵심 질문
보안 경계는 어디에 존재할까요 – 사용자의 판단에, 아니면 플랫폼의 아키텍처에?
Perplexity의 “Computer” – 관리형 대안
- 출시일 2026년 2월 25일.
- 관리형 샌드박스 플랫폼으로 19개의 AI 모델을 15개의 워크플로우 카테고리에 걸쳐 통합.
- 원시 성능은 낮지만, 보장된 안전성은 높음 – 트레이드오프가 명확합니다.
빌더를 위한 의사결정 트리
- 지속적인 백그라운드 접근 → 플랫폼 수준 보안 보장이 필요합니다.
- 세션 범위 접근 → 사용자 수준 평가가 가능할 수 있습니다.
- 제3자 스킬 마켓플레이스 → 원하든 원하지 않든 신뢰 중개자가 됩니다.
Alibaba의 Qwen 팀 – 새로운 오픈소스 모델
-
2026년 2월 24일 발표:
Qwen3.5-122B-A10BQwen3.5-35B-A3B(가장 주목할 만함)Qwen3.5-27B
-
VentureBeat 헤드라인: 이 오픈소스 모델들은 로컬 하드웨어에서 Sonnet 4.5 수준의 성능을 제공한다.
-
35B‑A3B 모델은 Mixture‑of‑Experts 아키텍처를 사용해 추론 단계당 3 B 파라미터만 활성화하므로 소비자 등급 하드웨어에서도 실행 가능하다.
-
배경: 2026년 2월은 중국의 AI 모델 API 호출량이 미국을 처음으로 앞선 달이었다. 오픈소스 역량이 최첨단 독점 모델을 따라잡는 속도가 대부분 로드맵이 예측한 것보다 빠르게 진행되고 있다.
빌더에게 주는 시사점
- 데이터 프라이버시가 중요한 워크로드, 보안 테스트 환경, 혹은 대규모 비용 효율 시나리오에서 이제 근접 최첨단 모델을 로컬에 배포하는 것이 실제 옵션이 될 수 있다. 이는 단순히 취미 수준 실험에 머무르지 않는다.
# Pull and run the 35B‑A3B model with Ollama
ollama pull qwen3.5:35b-a3b
ollama run qwen3.5:35b-a3b
AI‑생성 음성 사기
시나리오: 남성이 아내 번호에서 온 전화라고 주장하는 전화를 받았으며, 아내의 목소리로 아들이 자전거 사고를 당해 즉시 $3,000이 필요하다고 말했습니다.
전화 번호는 스푸핑되었고, 목소리는 AI‑생성되었습니다.
- 이것은 가설이 아닌 사례이며, 이번 주에 문서화된 사건입니다.
간단하고 비용이 들지 않는 방어책
- 가족용 암호문구를 설정하여 금전이나 민감한 행동이 필요한 비상 상황에 사용합니다.
- 발신자는 암호문구를 말해야 신원을 확인할 수 있습니다.
- 구현 시간: 약 5 분.
- 효과: 현재 AI 음성 클로닝 공격에 대비할 수 있습니다.
비상 시 금전을 보낼 수 있는 모든 사람과 오늘 바로 설정하세요.
핵심 요약
- AI 보안 검토는 기본이며, 보너스가 아니다.
- Claude Code Security와 같은 도구는 수십 년에 걸친 전문가 인간 검토를 통과한 버그를 찾아내고 있다.
- 인증, 파일 파싱, 네트워크 I/O와 같은 핵심 경로에서 AI‑지원 코드 스캔을 사용하지 않는다면, 보안 태세에 알려진 사각지대가 생기는 것이다.
Trust Model & Agent Permissions
Your agent’s trust model is your architecture. OpenClaw’s 100K‑star collapse happened because:
- Persistent access
- Third‑party marketplace
- User‑evaluated trust
These factors created a compounding blast radius.
Design Guidelines
- Make agent permissions session‑scoped by default.
- Require explicit elevation for higher privileges.
- Never assume users can audit third‑party skills at scale.
로컬 AI 배포
로컬 AI 배포가 이제 프로덕션‑ready 상태가 되어 프라이버시‑중심 사용 사례에 적합합니다.
- 모델: Qwen 3.5 (35B‑A3B)
- 성능: 추론 단계당 약 3 B 파라미터를 활성화 → 소비자‑등급 GPU에 맞음.
- 이점:
- 디바이스 내에서 거의 최첨단 수준의 기능 제공.
- 강력한 보안 테스트 및 로컬 코드 분석.
- 오프라인 워크플로우로 데이터 유출 위험 제거.
셀프‑호스팅 AI에 대한 비용 및 프라이버시 논거가 크게 강화되었습니다.
Source: Zecheng Intel Daily – February 28, 2026
Social Engineering – The Fastest‑Scaling Attack Surface
Social engineering attacks scale faster than any code exploit:
- Voice cloning
- Spoofed phone numbers
- Urgency manufacturing
These attacks don’t target your code; they target trust.
Defensive Approach
- Implement out‑of‑band verification protocols (e.g., secondary channels, one‑time passcodes).
- Rely on low‑tech passphrases and human confirmation rather than only technical patches.
Full Intelligence Report
Source: Zecheng Intel Daily – February 28, 2026
Topics: AI, SEO, markets, builder signals.