蒂姆·库克辞职 — Mac 是否正成为下一个 AI 代理平台?

发布: (2026年4月22日 GMT+8 12:55)
7 分钟阅读
原文: Dev.to

Source: Dev.to

请提供您希望翻译的正文内容,我将为您翻译成简体中文并保持原有的格式、Markdown 语法以及技术术语不变。

Apple Leadership Change

在 4 月 20 日,苹果宣布蒂姆·库克将从首席执行官转任执行董事长,硬件工程高级副总裁约翰·特努斯将在 9 月 1 日接任首席执行官。苹果在其 50 年的历史中,至今仅有三位首席执行官。

库克执掌 14 年,定义了两个时代:将苹果打造为全球最有价值的公司,并推动了从英特尔到苹果自研芯片的历史性转型。特努斯的背景颇具意义——他并非来自软件或服务领域。作为苹果硬件工程负责人以及苹果芯片的交付者,他的任命表明,硬件创新将在未来十年仍是公司的首要任务。

AI 领域与 Mac

在过去的几年里,AI 开发和部署几乎等同于 NVIDIA GPU + Windows/Linux。Mac 在 AI 生态系统中几乎没有影响。Apple Silicon 正在改变这一点——越来越多的开发者在 Mac 上运行 AI 工作负载,且这已不再只是实验。

主导因素是 CUDA 生态系统。NVIDIA GPU + CUDA 实际上垄断了 AI 训练和推理基础设施。自 2016 年 Apple 与 NVIDIA 分道扬镳后,Mac 不再配备 NVIDIA GPU。没有 CUDA,主要的深度学习框架(如 PyTorch、TensorFlow)将 Mac 视为二等公民——技术上受支持,但性能受限。因此,AI 从业者默认使用 Windows 桌面或 Linux 服务器。Mac 适合编写代码,但运行模型意味着需要通过 SSH 连接到远程机器。

Apple Silicon 在 AI 领域的优势

M1 芯片(2020)是一个拐点。Apple Silicon 的 Unified Memory Architecture 打破了传统的 CPU‑GPU 分离——CPU 和 GPU 共享同一内存池,消除了在它们之间来回传输数据的需求。这种设计为 AI 推理提供了天然优势:

  • 无 VRAM 瓶颈:32 GB 以上的统一内存可直接用于模型推理,不像传统 GPU 受限于专用 VRAM。
  • 卓越的能效:在相同计算能力下功耗更低,使得 MacBook 能在电池供电时运行模型。
  • 生态系统日益完善:Apple 推出了 MLX,一个针对 Apple Silicon 优化的机器学习框架;PyTorch 现已正式支持 MPS 后端。

从 M1 到 M4,每一代都在 AI 推理性能上带来了显著提升。配备 M4 与 32 GB RAM 的 Mac 如今能够流畅运行此前只能依赖专用 GPU 服务器的模型。

GUI 代理与 Mano‑P

AI 中快速增长的领域是 GUI 代理——直接观察屏幕、理解界面元素并操作鼠标和键盘以完成复杂计算机任务的模型。这类应用需要实时本地响应,使其自然适合在 Mac 上部署。

Mano‑P 是专为 Mac 构建的开源 GUI 代理。 “Mano” 来自西班牙语的 “hand”(手),而 “P” 代表 Person——面向个人使用的 AI。它使用纯视觉——不依赖辅助功能 API,也不进行 DOM 解析,仅凭截图理解。一切均在本地 Mac 上运行,数据不离开设备。

Apple Silicon 足够快吗?

  • OSWorld 基准(GUI 代理的标准端到端评估):Mano‑P 的 72B 模型实现 58.2 % 成功率,排名第一。第二名仅为 45.0 %——差距超过 13 个百分点。
  • WebRetriever Protocol I:Mano‑P 获得 41.7 NavEval,超过 Gemini 2.5 Pro(40.9)和 Claude 4.5(31.3)。

本地推理性能(Mano‑P 4B 量化模型,w4a16,运行于 M4 Pro)

指标数值
预填充速度476 tokens/s
解码速度76 tokens/s
峰值内存4.3 GB

在 32 GB Mac 上,峰值内存仅 4.3 GB,您可以在 IDE、浏览器、Slack 等应用同时运行代理,毫无压力。

  • 硬件要求:Apple M4 芯片 + 32 GB RAM。
  • 训练流水线:双向自我强化学习,分为三个递进阶段——SFT → 离线 RL → 在线 RL。
  • 推理循环:思考‑执行‑验证。分析屏幕状态,执行动作,验证结果。如果出现意外(弹窗、加载延迟),系统会自行纠正。
  • 核心能力:复杂 GUI 自动化、跨系统数据集成、长任务规划与执行、智能报告生成。
brew tap HanningWang/tap && brew install mano-cua

在 Apache 2.0 许可证下开源。

更广阔的生态系统

  • MLX 为开发者提供在 Apple Silicon 上高效运行模型的方式。
  • OllamaLM Studio 让在 Mac 上运行开源大语言模型像安装应用一样简单。
  • Core ML 持续改进,Apple 在设备端 AI 基础设施上投入巨大。

旧的共识——“做 AI 就是 Windows/Linux + NVIDIA”——正在松动。并不是因为 Mac 正在取代用于大规模训练的 GPU 服务器,而是因为在推理、个人开发以及设备端应用方面,Mac 正在成为一个真正可行的平台。

Outlook

Apple 选择一位硬件工程师担任 CEO,凸显公司对硅创新的关注。Mac 的 AI 能力只会越来越强。我们自己在 Mac 上构建了 GUI Agents,对看到更多开发者探索这一方向感到兴奋。

0 浏览
Back to Blog

相关文章

阅读更多 »

我首次涉足线束工程师领域

引言 当我们的团队着手构建 BypassHire —— 一款将求职申请时间从 45 分钟缩短至不足 5 分钟的 AI 工具时 —— 我们很快意识到,...