你的 AI 编写了后端。谁对泄露负责?
Source: Dev.to
Problem Overview
AI 行业向开发者宣称,现在任何人都可以构建应用——无需编码经验,发布速度前所未有。但他们没有告诉你的是,即使代码全部由 AI 编写,你仍然要对所发布产品的安全负责。
如果模型无法区分指令与上下文、元指令与对抗性框架,那么任何“防护栏”都只是与攻击同处一条通道的文字建议。这意味着每个 AI 生成的应用都继承了同样的松散特权模型、同样无法强制边界、同样容易受到社会工程攻击。
当开发者说“我的 AI 写了后端”时,实际上是在说:我部署了一个安全模型靠感觉的系统。
Legal Responsibility
大多数发布 AI 生成代码的开发者只关注功能、UI、变现和 MVP 速度。他们并未从以下角度考虑:
- 特权分离
- 能力边界
- 输入消毒
- 代码血缘追踪
- 撤销机制
- 可审计性
- 底层不变量
他们发布的应用中包含 AI 生成的认证逻辑、数据库查询、API 集成和错误处理——这些都没有进行威胁建模。这不是“快速迭代、打破常规”。而是“快速迭代,意外把用户数据暴露给整个互联网”。
如果你部署了处理用户数据的 AI 生成系统,你要对后果承担法律责任——即使代码是 AI 写的。法院不在乎是 Claude 写的、GPT 搭建的,或是你不知道它不安全。如果你的应用泄露了 PII、金融数据、健康数据或认证令牌,你就要承担责任。
从免费层梦想扩展到付费服务的独立开发者往往没有准备好应对泄露通知、监管罚款、民事责任、集体诉讼、取证审计或合规义务。他们以为自己在构建 SaaS,实际上是在构建一个责任面。
Risks of AI‑Generated Code
- 不安全的 AI 生成 API
- AI 生成的认证绕过
- AI 生成的 SQL 注入向量
- AI 生成的错误配置
- AI 生成的特权提升路径
开发者通常缺乏识别这些危险的知识。当数百万非专业人士在没有治理边界、没有威胁模型、也不了解自己在制造何种责任的情况下部署 AI 生成系统时,结果就是广泛的不安全。
Real‑World Example
最近有客户交给我 7,000 行 AI 代理生成的代码,直接部署到他们的生产环境中。它覆盖了他们原有的配置。没有治理检查,没有审查层,没有边界卫生——只有原始输出被当作体积等于价值直接上线。这 7,000 行代码本可以压缩到 300 行。
业界假装底层是安全的,因为承认相反会放慢采纳速度。但底层并不安全,边界没有治理,责任也不是假设的。“我的 AI 写的”并不是辩护。
Recommendations
- 提前定义责任:如果你向客户交付 AI 生成代码——或从开发者那里接受代码——务必签署明确的条款,规定代码失效时的责任归属。
- 加入保修与赔偿条款:在代码交付前明确保修免责声明、损害赔偿限制、赔偿条款以及泄露责任的所有权。
- 采用治理流程:对所有 AI 生成的组件实施代码审查、威胁建模和安全测试。
- 对开发者进行培训:提供特权分离、输入消毒和可审计性方面的培训。
如果没有任何条款,“谁拥有泄露” 的答案很简单:交付代码的人——不论他们是否知道代码不安全。