AI 路线图,如果有人愿意倾听

发布: (2026年3月8日 GMT+8 14:05)
6 分钟阅读
原文: TechCrunch

Source: TechCrunch

在华盛顿与 Anthropic 的分手暴露了人工智能缺乏任何连贯规则的现状后,一个跨党派的思想家联盟组建了一套迄今为止政府尚未提出的东西:一个关于负责任的 AI 开发应当是什么样子的框架。

Pro‑Human Declaration 在上周五角大楼与 Anthropic 的对峙之前就已敲定,但两件事的碰撞并未被参与者忽视。

“在美国过去四个月里发生了一件相当惊人的事,”帮助组织这项工作的 MIT 物理学家兼 AI 研究员 Max Tegmark 在接受本编辑采访时说。 “民调突然显示,95 % 的美国人反对一场没有监管的超级智能竞赛。”
— The AI Safety Showdown with Max Tegmark

人类友好宣言

背景与动机

这份新近发布的文件由数百位专家、前官员和公众人物签署,开篇指出人类正站在十字路口:

  • “被取代的竞赛”——人类首先被机器取代为工人,其次被取代为决策者,权力集中在不受约束的机构及其机器手中。
  • 另一种选择——人工智能大幅扩展人类潜能。

关键支柱

宣言列出了实现后者情景必须坚持的五大支柱:

  1. 让人类保持掌控
  2. 避免权力集中
  3. 保护人类体验
  4. 维护个人自由
  5. 让 AI 公司承担法律责任

其中较为强硬的条款包括:

  • 在科学界达成安全共识 获得真正的民主认可之前,严禁开发超智能。
  • 对强大系统强制设置关闭开关。
  • 禁止具备自我复制、自主自我改进或抗拒关闭能力的架构。

最近的政府行动

五角大楼‑Anthropic 争议

在二月的最后一个星期五,国防部长 Pete Hegseth 将 Anthropic——一家其 AI 已经在机密军事平台上运行的公司——指定为 “供应链风险”,因为该公司拒绝向五角大楼提供其技术的无限使用权。该标签通常仅用于与中国有联系的公司。

OpenAI 合同

几小时后,OpenAI 终止了与国防部的协议,法律专家表示,这一举措在任何有意义的层面上都将难以执行。此事凸显了国会对 AI 失策的代价有多高。

“这不仅仅是一次合同争议。这是我们作为一个国家首次就 AI 系统的控制进行的对话,” Dean Ball,美国创新基金会的高级研究员,对《纽约时报》说。
— NYT article (Mar 7 2026)

儿童安全与部署前测试

类比与理由

Tegmark 将 AI 监管类比于药物安全监管:

“你永远不必担心某家制药公司会在还没有弄清如何确保安全之前就发布一种会造成巨大伤害的药物,因为 FDA 不会允许他们在药物足够安全之前发布任何东西。”

建议的测试要求

声明呼吁对 AI 产品进行强制性部署前测试——尤其是面向年轻用户的聊天机器人和伴侣应用——涵盖以下风险:

  • 增加自杀倾向
  • 加剧心理健康问题
  • 情感操控

“如果某个令人毛骨悚然的老男人冒充年轻女孩给一名 11 岁的孩子发短信,试图说服这个男孩自杀,这个人会因此入狱。我们已经有法律了。这是非法的。那么如果是机器这么做,为什么会不一样呢?” — Tegmark

Tegmark 认为,一旦对儿童产品实行发布前测试成为标准,范围自然会扩展到其他高风险领域(例如,防止 AI 辅助的生物武器制造或防范推翻政府的企图)。

广泛支持

声明吸引了异常多元的签署者,包括:

  • 前特朗普顾问 Steve Bannon
  • 前奥巴马总统国家安全顾问 Susan Rice
  • 前参谋长联席会议主席 Mike Mullen
  • 进步的信仰领袖
  • 数百名人工智能研究人员、伦理学家和行业高管

“他们一致同意的当然是,他们都是人类。如果最终要决定是想要人类的未来还是机器的未来,他们自然会站在同一边。” — Tegmark

0 浏览
Back to Blog

相关文章

阅读更多 »