AI가 27년 동안 숨겨진 12개의 OpenSSL 버그를 발견했습니다. 이제 코드 리뷰만으로는 충분하지 않습니다.

발행: (2026년 2월 28일 오후 04:56 GMT+9)
12 분 소요
원문: Dev.to

Source: Dev.to

이번 주 AI‑보안 대화를 촉발한 세 가지 사건

모두 며칠 사이에 일어났습니다:

  1. AISLE의 AI 시스템이 OpenSSL에서 12개의 제로데이 취약점을 독립적으로 발견했으며, 여기에는 1998년부터 존재해 온 버그도 포함되었습니다.
  2. AnthropicClaude Code Security를 출시했으며, 이는 프로덕션 오픈소스 코드베이스에서 500개 이상의 취약점을 밝혀냈습니다.
  3. 인기 AI‑에이전트 플랫폼 OpenClaw가 중요한 RCE 익스플로잇에 의해 붕괴되어 사용자 신뢰가 크게 떨어졌습니다.

이 세 가지는 하나의 이야기를 전합니다: AI가 양쪽 모두에서 보안 루프에 진입했습니다.

  • 인간이 놓치는 것을 찾아냅니다.
  • 인간이 아직 상상하지 못한 공격 표면도 만들고 있습니다.

AISLE’s AI System & OpenSSL Zero‑Days

  • AI가 12개 제로데이 취약점을 OpenSSL의 2026년 1월 보안 릴리스 공개 이전에 발견했습니다.
  • 가장 심각한 것은 CVE‑2025‑15467: CMS 메시지 파싱에서 발생하는 스택 버퍼 오버플로, CRITICAL (CVSS 9.8, NIST). 유효한 키 자료 없이 원격으로 악용될 가능성이 있습니다.
  • 12개 버그 중 3개1998–2000년부터 존재해 왔습니다.

“AI 취약점 발견은 사이버 보안을 예상보다 빠르게 변화시키고 있다.” – Bruce Schneier

Implications

  • 이 버그들을 찾은 동일한 시스템을 여러분의 코드베이스를 포함한 어떤 코드베이스에도 적용할 수 있으며, 패치하기 전에 먼저 발견될 수 있습니다.
  • AI‑지원 보안 검토는 이제 선택 사항이 아니라, 먼저 발견하는 팀과 먼저 패치하는 팀을 구분하는 기준이 됩니다.

Anthropic의 Claude Code Security

  • Claude Opus 4.6 기반.
  • 결과: 생산 환경 오픈‑소스 코드베이스에서 500개 이상의 취약점이 발견되었습니다 – 인간 전문가 검토 수십 년을 견뎌온 버그들.

AI가 인간 검토를 능가하는 이유

  • 인간 리뷰어는 피로, 가정에 대한 맹점, 그리고 컨텍스트 전환 비용에 시달립니다.
  • AI 시스템은 전체 dependency graph(의존성 그래프)를 컨텍스트에 유지하고, 대규모 호출 체인 전반에 걸쳐 추론할 수 있습니다.

실용적인 시사점

2026년에 AI‑지원 보안 검토 없이 코드를 배포한다면, 이는 이론적인 문제가 아니라 알려진 맹점을 가지고 있다는 의미입니다.

OpenClaw 붕괴

  • 몇 주 만에 0에서 100 000+ GitHub 스타로 성장했습니다.
  • 오스트리아 개발자 Peter Steinberger가 “수평 로컬‑우선 런타임 직원”으로 구축했으며, Claude Code와 같은 도구와는 근본적으로 다릅니다.

아키텍처 구분

기능Claude CodeOpenClaw
실행 모델수직 샌드박스 – 호출되어 작업을 수행하고 종료됩니다.지속적인 백그라운드 런타임 – 24시간 운영되며 지속적인 작업을 처리합니다 (예: 자정에 받은 편지함을 정리하고, 매주 금요일에 Discord를 요약).
접근 범위제한적이며 단기간 접근만 가능합니다.API 토큰, 파일 시스템, 코드 실행 등에 대한 광범위하고 지속적인 접근 권한을 가지며, 본질적으로 사용자의 전체 디지털 생활에 접근합니다.
  • 이 지속적이고 광범위한 접근 모델은 OpenClaw를 강력하게 만들었으며, 실패했을 때는 재앙이 되었습니다.

CVE‑2026‑25253 – 치명적인 원격 코드 실행 취약점.

  • Koi 연구원들은 ClawHub 마켓플레이스에서 341개의 악성 스킬을 발견했습니다 (가짜 암호화폐 거래 봇, Atomic macOS Stealer 및 기타 정보 탈취 악성코드를 배포한 생산성 도구 등).

“OpenClaw의 실패는 기술적 실패가 아닙니다. 신뢰 모델 실패입니다.” – Sabrina Ramonov

AI‑에이전트 구축자를 위한 핵심 질문

보안 경계는 어디에 존재할까요 – 사용자의 판단에, 아니면 플랫폼의 아키텍처에?

Perplexity의 “Computer” – 관리형 대안

  • 출시일 2026년 2월 25일.
  • 관리형 샌드박스 플랫폼으로 19개의 AI 모델15개의 워크플로우 카테고리에 걸쳐 통합.
  • 원시 성능은 낮지만, 보장된 안전성은 높음 – 트레이드오프가 명확합니다.

빌더를 위한 의사결정 트리

  • 지속적인 백그라운드 접근플랫폼 수준 보안 보장이 필요합니다.
  • 세션 범위 접근 → 사용자 수준 평가가 가능할 수 있습니다.
  • 제3자 스킬 마켓플레이스 → 원하든 원하지 않든 신뢰 중개자가 됩니다.

Alibaba의 Qwen 팀 – 새로운 오픈소스 모델

  • 2026년 2월 24일 발표:

    • Qwen3.5-122B-A10B
    • Qwen3.5-35B-A3B (가장 주목할 만함)
    • Qwen3.5-27B
  • VentureBeat 헤드라인: 이 오픈소스 모델들은 로컬 하드웨어에서 Sonnet 4.5 수준의 성능을 제공한다.

  • 35B‑A3B 모델은 Mixture‑of‑Experts 아키텍처를 사용해 추론 단계당 3 B 파라미터만 활성화하므로 소비자 등급 하드웨어에서도 실행 가능하다.

  • 배경: 2026년 2월은 중국의 AI 모델 API 호출량이 미국을 처음으로 앞선 달이었다. 오픈소스 역량이 최첨단 독점 모델을 따라잡는 속도가 대부분 로드맵이 예측한 것보다 빠르게 진행되고 있다.

빌더에게 주는 시사점

  • 데이터 프라이버시가 중요한 워크로드, 보안 테스트 환경, 혹은 대규모 비용 효율 시나리오에서 이제 근접 최첨단 모델로컬에 배포하는 것이 실제 옵션이 될 수 있다. 이는 단순히 취미 수준 실험에 머무르지 않는다.
# Pull and run the 35B‑A3B model with Ollama
ollama pull qwen3.5:35b-a3b
ollama run qwen3.5:35b-a3b

AI‑생성 음성 사기

시나리오: 남성이 아내 번호에서 온 전화라고 주장하는 전화를 받았으며, 아내의 목소리로 아들이 자전거 사고를 당해 즉시 $3,000이 필요하다고 말했습니다.
전화 번호는 스푸핑되었고, 목소리는 AI‑생성되었습니다.

  • 이것은 가설이 아닌 사례이며, 이번 주에 문서화된 사건입니다.

간단하고 비용이 들지 않는 방어책

  1. 가족용 암호문구를 설정하여 금전이나 민감한 행동이 필요한 비상 상황에 사용합니다.
  2. 발신자는 암호문구를 말해야 신원을 확인할 수 있습니다.
  • 구현 시간: 약 5 분.
  • 효과: 현재 AI 음성 클로닝 공격에 대비할 수 있습니다.

비상 시 금전을 보낼 수 있는 모든 사람과 오늘 바로 설정하세요.

핵심 요약

  • AI 보안 검토는 기본이며, 보너스가 아니다.
  • Claude Code Security와 같은 도구는 수십 년에 걸친 전문가 인간 검토를 통과한 버그를 찾아내고 있다.
  • 인증, 파일 파싱, 네트워크 I/O와 같은 핵심 경로에서 AI‑지원 코드 스캔을 사용하지 않는다면, 보안 태세에 알려진 사각지대가 생기는 것이다.

Trust Model & Agent Permissions

Your agent’s trust model is your architecture. OpenClaw’s 100K‑star collapse happened because:

  • Persistent access
  • Third‑party marketplace
  • User‑evaluated trust

These factors created a compounding blast radius.

Design Guidelines

  • Make agent permissions session‑scoped by default.
  • Require explicit elevation for higher privileges.
  • Never assume users can audit third‑party skills at scale.

로컬 AI 배포

로컬 AI 배포가 이제 프로덕션‑ready 상태가 되어 프라이버시‑중심 사용 사례에 적합합니다.

  • 모델: Qwen 3.5 (35B‑A3B)
  • 성능: 추론 단계당 약 3 B 파라미터를 활성화 → 소비자‑등급 GPU에 맞음.
  • 이점:
    • 디바이스 내에서 거의 최첨단 수준의 기능 제공.
    • 강력한 보안 테스트 및 로컬 코드 분석.
    • 오프라인 워크플로우로 데이터 유출 위험 제거.

셀프‑호스팅 AI에 대한 비용 및 프라이버시 논거가 크게 강화되었습니다.


Source: Zecheng Intel Daily – February 28, 2026

Social Engineering – The Fastest‑Scaling Attack Surface

Social engineering attacks scale faster than any code exploit:

  • Voice cloning
  • Spoofed phone numbers
  • Urgency manufacturing

These attacks don’t target your code; they target trust.

Defensive Approach

  • Implement out‑of‑band verification protocols (e.g., secondary channels, one‑time passcodes).
  • Rely on low‑tech passphrases and human confirmation rather than only technical patches.

Full Intelligence Report

Source: Zecheng Intel Daily – February 28, 2026
Topics: AI, SEO, markets, builder signals.

0 조회
Back to Blog

관련 글

더 보기 »

일이 정신 건강 위험이 될 때

markdown !Ravi Mishrahttps://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fu...