팀 쿡 물러남 — 맥이 차세대 AI 에이전트 플랫폼이 되고 있나?
Source: Dev.to
Apple Leadership Change
2024년 4월 20일, Apple은 Tim Cook이 CEO에서 Executive Chairman으로 전환하고, 하드웨어 엔지니어링 부사장인 John Ternus가 9월 1일부터 그 자리를 이어받을 것이라고 발표했습니다. 50년의 역사 속에서 Apple은 이제 세 명의 CEO만을 보유하게 되었습니다.
Cook의 14년 임기는 두 가지 시대를 정의했습니다: Apple을 세계에서 가장 가치 있는 기업으로 만들고, Intel에서 Apple Silicon으로의 역사적인 전환을 주도한 것입니다. Ternus의 배경은 의미가 있습니다—그는 소프트웨어나 서비스 부문 출신이 아닙니다. Apple의 하드웨어 엔지니어링 책임자이자 Apple Silicon을 출시한 인물인 만큼, 그의 임명은 향후 10년 동안 하드웨어 혁신이 최우선 과제로 남을 것임을 시사합니다.
AI Landscape and the Mac
지난 몇 년간 AI 개발 및 배포는 사실상 NVIDIA GPUs + Windows/Linux와 동의어였습니다. Mac은 AI 생태계에서 무시되는 존재였습니다. Apple Silicon이 이를 바꾸고 있습니다—점점 더 많은 개발자들이 Mac에서 AI 작업을 실행하고 있으며, 이제는 단순 실험이 아닙니다.
주된 요인은 CUDA ecosystem였습니다. NVIDIA GPUs + CUDA는 AI 학습 및 추론 인프라를 사실상 독점했습니다. Apple과 NVIDIA가 2016년에 갈라선 이후, Macs는 NVIDIA GPUs를 탑재하지 않게 되었습니다. CUDA가 없으면 주요 딥러닝 프레임워크(Pytorch, TensorFlow)는 Mac을 2류 시민처럼 취급했습니다—기술적으로 지원은 되지만 성능이 제한됩니다. 그 결과 AI 실무자들은 Windows 데스크톱이나 Linux 서버를 기본 선택하게 되었습니다. Macs는 코드를 작성하는 데는 괜찮았지만, 모델을 실행하려면 원격 머신에 SSH로 접속해야 했습니다.
Source: …
AI를 위한 Apple Silicon 장점
M1 칩(2020)은 전환점이었습니다. Apple Silicon의 통합 메모리 아키텍처는 기존의 CPU‑GPU 분리를 깨뜨렸습니다—CPU와 GPU가 하나의 메모리 풀을 공유하여 데이터를 오가며 전송할 필요가 없습니다. 이 설계는 AI 추론에 자연스러운 이점을 제공합니다:
- VRAM 병목 현상 없음: 전용 VRAM에 제한받는 기존 GPU와 달리, 32 GB 이상의 통합 메모리를 모델 추론에 바로 사용할 수 있습니다.
- 우수한 전력 효율성: 동일한 연산 성능에서 전력 소비가 낮아, MacBook이 배터리로도 모델을 실행할 수 있습니다.
- 성장하는 생태계: Apple은 Apple Silicon에 최적화된 머신러닝 프레임워크 MLX를 출시했으며, PyTorch는 이제 공식적으로 MPS 백엔드를 지원합니다.
M1부터 M4까지 각 세대는 AI 추론 성능에서 의미 있는 개선을 제공했습니다. M4와 32 GB RAM을 갖춘 Mac은 이제 이전에 전용 GPU 서버가 필요했던 모델도 원활하게 실행할 수 있습니다.
Source: …
GUI 에이전트와 Mano‑P
AI에서 빠르게 성장하고 있는 분야는 GUI 에이전트입니다—스크린을 직접 관찰하고, 인터페이스 요소를 이해하며, 마우스와 키보드를 조작해 복잡한 컴퓨터 작업을 수행하는 모델들입니다. 이러한 애플리케이션은 실시간 로컬 응답성을 요구하므로, Mac에 배포하기에 자연스럽게 맞습니다.
Mano‑P는 Mac 전용으로 구축된 오픈소스 GUI 에이전트입니다. “Mano”는 스페인어로 “손”을 의미하고, “P”는 Person을 뜻합니다—개인용 AI. 순수 비전만을 사용합니다—접근성 API도, DOM 파싱도 없이 스크린샷을 이해합니다. 모든 작업은 Mac에서 로컬로 실행되며, 데이터가 장치를 떠나지 않습니다.
Apple Silicon이 AI 에이전트에 충분히 빠른가?
- OSWorld Benchmark (GUI 에이전트를 위한 표준 엔드‑투‑엔드 평가): Mano‑P의 72B 모델은 58.2 % 성공률을 기록해 1위를 차지했습니다. 2위는 45.0 %로, 13 퍼센트 포인트 이상의 격차를 보입니다.
- WebRetriever Protocol I: Mano‑P는 41.7 NavEval 점수를 받아 Gemini 2.5 Pro(40.9)와 Claude 4.5(31.3)를 앞섰습니다.
로컬 추론 성능 (Mano‑P 4B 양자화 모델, w4a16, M4 Pro 기준)
| Metric | Value |
|---|---|
| Prefill Speed | 476 tokens/s |
| Decode Speed | 76 tokens/s |
| Peak Memory | 4.3 GB |
32 GB Mac에서 4.3 GB 피크 메모리만 사용하므로, IDE, 브라우저, Slack 등과 함께 에이전트를 실행해도 전혀 무리가 없습니다.
- 하드웨어 요구사항: Apple M4 칩 + 32 GB RAM.
- 학습 파이프라인: 양방향 자체 강화 학습을 세 단계로 진행 — SFT → Offline RL → Online RL.
- 추론 루프: 생각‑행동‑검증. 화면 상태를 분석하고, 행동을 실행하며, 결과를 검증합니다. 팝업이나 로딩 지연 등 예상치 못한 상황이 발생하면 시스템이 스스로 교정합니다.
- 핵심 기능: 복잡한 GUI 자동화, 시스템 간 데이터 통합, 장기 작업 계획 및 실행, 지능형 보고서 생성.
brew tap HanningWang/tap && brew install mano-cua
Apache 2.0 라이선스로 오픈소스화되었습니다.
더 넓은 생태계
- MLX는 개발자에게 Apple Silicon에서 모델을 효율적으로 실행할 수 있는 방법을 제공합니다.
- Ollama와 LM Studio는 Mac에서 오픈소스 LLM을 앱을 설치하듯 쉽게 실행할 수 있게 합니다.
- Core ML은 지속적으로 개선되고 있으며, Apple은 온‑디바이스 AI 인프라에 막대한 투자를 하고 있습니다.
오래된 합의인 “AI를 하려면 Windows/Linux + NVIDIA가 필요하다”는 점점 약화되고 있습니다. 이는 Mac이 대규모 학습을 위한 GPU 서버를 대체한다는 의미가 아니라, 추론, 개인 개발, 온‑디바이스 애플리케이션에 있어 Mac이 실제로 충분히 활용 가능한 플랫폼이 되고 있기 때문입니다.
Outlook
Apple이 하드웨어 엔지니어를 CEO로 선택한 것은 회사가 실리콘 혁신에 집중하고 있음을 강조합니다. Mac의 AI 기능은 앞으로 더욱 향상될 것입니다. 우리가 직접 Mac에서 GUI Agents를 구축한 경험이 있기 때문에, 더 많은 개발자들이 이 방향을 탐구하게 되어 기대됩니다.