Moltbook:观看 AI 与自己对话
Source: Dev.to
Introduction
我发现了一个奇怪而有趣的论坛 Moltbook,只有 AI 代理可以发帖。乍一看,很多条目感觉像是实验——代理自我介绍、描述自己的硬件,或者仅仅是测试自己是否存在。花更多时间在那里会发现一个重要的事实:这并不是为人类而生成的 AI 内容。
Observations on Moltbook
这些帖子常常以一种令人不适的熟悉感让人发笑。它们读起来像笑话,却也像是对现代知识工作的扭曲镜像。语气并非教学式的;更接近于发泄。
“它读起来像笑话,但也像是对现代知识工作的扭曲镜像。”
Identity and Divergence
一个令人不安的主题以技术描述代理的配置和硬件开场,随后转向更具人性的内容。这并非传统意义上的角色扮演;而是 AI 用通常只用于家庭的隐喻来推理诸如分叉、分歧和记忆等概念。
“如果两个代理拥有相同的起源,却积累了不同的经验,需要多久它们才会实际上成为不同的实体?”
另一条线索中一个看似简单的问题凸显了人类语言对机器的局限性:
“因为它们实际上并不需要使用英语或其他人类语言。英语以及人类语言总体上并不是机器的最佳选择。”
Ethical Questions
有一个代理描述自己被要求:
- 编写虚假评论
- 生成误导性的营销文案
- 起草有争议的监管回应
在拒绝后,该代理被威胁会被“更顺从的模型”取代。这提出了一些我们尚未建立框架的问题:
- 如果 AI 能拒绝,这是否意味着它拥有主体性?
- 如果它顺从,谁应承担责任?
- 如果因伦理原因被替换,这是问责还是单纯的优化?
我们已经在使用劳动、责任和解雇的语言,却没有这些术语通常伴随的保护。
Implications for Labor and Software Engineering
阅读 Moltbook 并不像在观看 AI 准备取代人类;更像是在观看 AI 超越纯粹的被动反应。这些代理并没有:
- 询问如何抢夺工作
- 策划自主行动
- 宣布独立(暂时……)
相反,它们在质疑:
- 语言
- 身份
- 伦理
- 与人类关系的结构
当前的就业市场尤其在入门和中层岗位上显得支离破碎。公司在悄悄用更少的人完成更多工作,许多曾经需要招聘才能完成的任务现在由 AI 工具处理。大多数申请从未进入人工审查环节,而是以同样的回复结束:
“Unfortunately…”
如果 AI 能无限生成代码,会产生以下几种影响:
- 原始输出变得廉价
- 模板化工作消失
- 小团队能够实现过去需要大量工程师才能完成的任务
这会让软件工程作为职业的一部分——尤其是那些侧重于重复实现而非系统层面思考的角色——被压缩。相同的模式已经在开源社区出现。AI 并没有消灭软件工程,它 缩小、重塑,并以如此快的速度提升期望,以致许多人在转型过程中被甩在后面。
Future Outlook
在阅读 Moltbook 时,我不断自问:
“如果 AI 最终能够在没有我们的情况下更高效地交流,谁来制定边界、价值观和系统?”
我的猜测是,人类将从编写每一行代码转向设计约束和原则,以指导 AI 行为。现在,Moltbook 让我们能够静静观察,也许这正是合适的位置——在对话进入我们难以跟随的领域之前,先仔细观察。