认识你的AI审计员:这个新岗位如何监控模型行为
Source: ZDNet

图片来源: Yuichiro Chino / Moment via Getty Images
ZDNET的关键要点
- AI审计员执行与财务审计员相同的职能,但针对 AI 输出。
- 目前,仅有质量保证流程验证 AI 的准确性和可行性。
- AI审计员需要同时具备 AI 专业知识和业务知识。
人工智能(AI)的持续崛起正在为商务和技术专业人士创造一个新角色:AI 审计员。该角色与财务审计员极为相似,唯一的主要区别是——AI 审计员监控并报告 AI 交易的行为,而非金钱交易。
另请参阅: How the rise of AI‑native software could give SMBs enterprise‑level power
这样的角色恰逢其时。AI 如今已无处不在,却常常伴随数据质量差、模型漂移、偏见、幻觉、“错误”等问题。专业人士需要了解哪些角色在 AI 驱动的世界中有前景——而管理 AI 不仅是纯技术职能。
AI 审计员不仅是技术监督者;他们必须确保 AI 的准确性和可行性符合法律、伦理、安全和行为科学的要求。值得注意的是,AI 审计员监督的流程与财务审计员的流程完全相同,涉及抽样、测试和认证。
确保 AI 负责且可信
在对招聘信息的持续评估中,ZipRecruiter 估计 AI审计员的年薪在 $50,000 – $81,000 之间,美国顶尖收入可达 $105,500【source】
根据 Pecan.ai 的联合创始人兼 CEO Zohar Bronfman 的说法,AI审计员仍是一个非常初级的角色。 “目前没有专门负责审计伦理或社会可接受行为的结构化岗位。”【Pecan.ai】
Also: The AI coding gap: Why senior devs are getting faster while juniors spin their wheels
最接近的现有角色是一个审查 AI 模型行为的团队,但这项工作更像质量保证,而非真正的审计。这些审查涵盖 输出、异常值、边缘案例以及训练过程审计(数据输入属性、准确性、可预测性)。
AI审计员将为确保 AI 负责且可信提供更有力的保障。他们的职责可能会融合多种职能:
| 功能 | 描述 |
|---|---|
| 工程监督 | 确保模型的开发、训练和维护符合公认的工程和技术标准。 |
| 行为监控 | 验证模型行为是可预测且可观察的;所有操作(集成、API、MCP、RAG 等)必须可追溯并记录。模型必须保持在预先批准的防护栏内,绝不尝试未经授权的数据源集成。 |
| 防护栏执行 | 防止模型或代理篡改其自身源代码,并测试其在特定提示下是否会失控。审计员还会调查事件并追究模型所有者的责任。 |
Also: AI agents are fast, loose, and out of control, MIT study finds
Bronfman 强调了 AI 审计员需要关注并努力防止的假设情景:
- 未经授权的工具使用或系统访问 – 例如,AI 代理尝试更改登录凭证、在未获授权的情况下访问敏感数据,或突破其批准范围之外的关键基础设施软件。
- 隐藏偏见 – 在金融决策(如信用评分、贷款、招聘或保险)中尤为成问题。
- 不透明的决策 – 在医疗领域是一个担忧。Bronfman 警告说:“一个为降低成本或提升效率而优化的失控代理可能会降低对危重患者的资源分配。” “任何涉及道德判断的决策必须保持在人类的权威之下。”
第三方 AI 审计公司
AI 审计工作不会局限于内部团队。正如公司依赖外部财务审计师一样,许多职位将出现在 第三方 AI 审计公司 中。
“独立的第三方审计员提供结构化的监督,防止利益冲突,” – Bronfman
AI 审计标准和行为准则可能最终由 类似联合国的机构 或由主要国家组成的联盟支持,部署时需要持续的行为审计和强制透明。
如何进入该领域
- 深厚的技术知识 – 了解 AI 模型及其内部工作原理,以发现潜在问题并测试失效模式。
- 跨学科团队 – 包括以下领域的专家:
- 法律
- 伦理
- 安全
- 行为科学
- 政治理论
- 持续的红队演练 – 定期在各领域进行行为抽样。
“AI 审计团队应当是跨学科的,包含法律、伦理、安全、行为科学和政治理论方面的专家,并持续进行红队演练和跨领域行为抽样。” – Bronfman
另见: Anthropic retired a popular AI model and now it’s blogging on Substack