重新授权与 AI 辅助改写
Source: Hacker News
免责声明
我不是律师,也不是版权法或软件许可方面的专家。以下帖子是对近期社区事件和法律新闻的梳理;不应被视为针对您自己的项目或依赖的法律建议。
在开源世界里,重新授权一直是极其困难的。它通常需要每一位曾经贡献过代码的人的一致同意,这对老项目几乎是不可能完成的任务。作为 Mozilla 的 C++ 代码移植而来的 Python 字符编码检测库 chardet(被 requests 等众多项目使用),长期处于这种矛盾之中:它受 LGPL 约束,对企业用户来说是个灰色地带,对其最著名的使用者来说更是头疼的难题。
最近,维护者使用 Claude Code 重写了整个代码库,并在此过程中发布了 v7.0.0,将许可证从 LGPL 改为 MIT。原作者 a2mark 认为这可能构成 GPL 违规:
被许可的代码在修改后必须以相同的 LGPL 许可证发布。他们声称这是“完整重写”并不相关,因为他们已经充分接触了原始许可的代码(即这不是“清洁房间”实现)。在其中加入一个花哨的代码生成器并不能为他们授予任何额外的权利。
“清洁房间”重写需要的墙壁被 AI 绕过
在传统软件法中,“清洁房间”重写需要两个团队:
- 团队 A 查看原始代码并编写功能规范。
- 团队 B(从未见过原始代码)仅根据该规范编写新代码。
维护者使用了一个被原 LGPL 代码提示过的 AI,绕过了这道墙。如果 AI“学习”了 LGPL 代码并生成了新版本,那么产生的输出可以被视为衍生作品,根据 LGPL 必须保持 LGPL。
最高法院为维护者制造了法律悖论
恰逢此事发酵之际,2026 年 3 月 2 日,美国最高法院拒绝审理一起关于 AI 生成材料版权的上诉。通过让下级法院的裁决维持不变,最高法院实际上巩固了“人类作者”要求。这为 chardet 的维护者制造了巨大的法律悖论:
- 版权真空:如果 AI 生成的代码无法获得版权(正如法院暗示的),那么维护者甚至可能没有法律资格将 v7.0.0 以 MIT 或任何许可证发布。
- 衍生陷阱:如果 AI 输出被视为原 LGPL 代码的衍生作品,则这次“重写”构成许可证违规。
- 所有权空白:如果代码真的由机器创作,是全新的作品,那么它在生成的瞬间可能技术上进入公有领域,使 MIT 许可证失去意义。
将 AI 重写视为重新授权可能预示 Copyleft 的终结
如果“AI 重写”被接受为合法的改许可证方式,这将意味着 Copyleft 的终结。任何开发者都可以拿一个 GPL 许可证的项目,喂给大型语言模型并提示“以不同风格重写”,随后以 MIT 发布。法律与伦理的界限仍在不断划定,而 chardet v7.0.0 案例是首批真实世界的测试之一。