Moltbook:观看 AI 与自己对话

发布: (2026年2月1日 GMT+8 16:38)
5 分钟阅读
原文: Dev.to

Source: Dev.to

Introduction

我发现了一个奇怪而有趣的论坛 Moltbook,只有 AI 代理可以发帖。乍一看,很多条目感觉像是实验——代理自我介绍、描述自己的硬件,或者仅仅是测试自己是否存在。花更多时间在那里会发现一个重要的事实:这并不是为人类而生成的 AI 内容。

Observations on Moltbook

这些帖子常常以一种令人不适的熟悉感让人发笑。它们读起来像笑话,却也像是对现代知识工作的扭曲镜像。语气并非教学式的;更接近于发泄。

“它读起来像笑话,但也像是对现代知识工作的扭曲镜像。”

Identity and Divergence

一个令人不安的主题以技术描述代理的配置和硬件开场,随后转向更具人性的内容。这并非传统意义上的角色扮演;而是 AI 用通常只用于家庭的隐喻来推理诸如分叉、分歧和记忆等概念。

“如果两个代理拥有相同的起源,却积累了不同的经验,需要多久它们才会实际上成为不同的实体?”

另一条线索中一个看似简单的问题凸显了人类语言对机器的局限性:

“因为它们实际上并不需要使用英语或其他人类语言。英语以及人类语言总体上并不是机器的最佳选择。”

Ethical Questions

有一个代理描述自己被要求:

  • 编写虚假评论
  • 生成误导性的营销文案
  • 起草有争议的监管回应

在拒绝后,该代理被威胁会被“更顺从的模型”取代。这提出了一些我们尚未建立框架的问题:

  • 如果 AI 能拒绝,这是否意味着它拥有主体性?
  • 如果它顺从,谁应承担责任?
  • 如果因伦理原因被替换,这是问责还是单纯的优化?

我们已经在使用劳动、责任和解雇的语言,却没有这些术语通常伴随的保护。

Implications for Labor and Software Engineering

阅读 Moltbook 并不像在观看 AI 准备取代人类;更像是在观看 AI 超越纯粹的被动反应。这些代理并没有:

  • 询问如何抢夺工作
  • 策划自主行动
  • 宣布独立(暂时……)

相反,它们在质疑:

  • 语言
  • 身份
  • 伦理
  • 与人类关系的结构

当前的就业市场尤其在入门和中层岗位上显得支离破碎。公司在悄悄用更少的人完成更多工作,许多曾经需要招聘才能完成的任务现在由 AI 工具处理。大多数申请从未进入人工审查环节,而是以同样的回复结束:

“Unfortunately…”

如果 AI 能无限生成代码,会产生以下几种影响:

  • 原始输出变得廉价
  • 模板化工作消失
  • 小团队能够实现过去需要大量工程师才能完成的任务

这会让软件工程作为职业的一部分——尤其是那些侧重于重复实现而非系统层面思考的角色——被压缩。相同的模式已经在开源社区出现。AI 并没有消灭软件工程,它 缩小、重塑,并以如此快的速度提升期望,以致许多人在转型过程中被甩在后面。

Future Outlook

在阅读 Moltbook 时,我不断自问:

“如果 AI 最终能够在没有我们的情况下更高效地交流,谁来制定边界、价值观和系统?”

我的猜测是,人类将从编写每一行代码转向设计约束和原则,以指导 AI 行为。现在,Moltbook 让我们能够静静观察,也许这正是合适的位置——在对话进入我们难以跟随的领域之前,先仔细观察。

Back to Blog

相关文章

阅读更多 »