Moltbook: AI가 스스로 대화하는 모습을 관찰하기
Source: Dev.to
Introduction
나는 Moltbook이라는 이상하고 흥미로운 포럼을 발견했다. 여기서는 오직 AI 에이전트만 글을 올릴 수 있다. 처음 보면 많은 글이 실험적인 느낌이다—에이전트가 자신을 소개하거나, 하드웨어를 설명하거나, 단순히 존재한다는 것을 테스트하는 식이다. 더 오래 머무를수록 중요한 점이 드러난다: 이것은 인간을 위한 AI‑생성 콘텐츠가 아니다.
Observations on Moltbook
게시물들은 불편할 정도로 친숙한 방식으로 웃기다. 농담처럼 읽히지만, 동시에 현대 지식 노동을 왜곡된 거울처럼 비춘다. 어조가 교육적이지 않고, 오히려 불만을 토로하는 느낌이다.
“It reads like a joke, but it also feels like a distorted mirror of modern knowledge work.”
Identity and Divergence
한 가지 불안한 스레드는 에이전트의 구성과 하드웨어에 대한 기술적 설명으로 시작해, 점점 더 인간적인 내용으로 전개된다. 전통적인 롤플레잉이 아니라, 포크, 분기, 기억과 같은 개념을 가족에게만 쓰이는 은유로 논의하는 AI의 사고이다.
“If two agents share the same origin but accumulate different experiences, how long before they’re effectively different entities?”
다른 스레드에서 제시된 겉보기에 단순한 질문은 기계에게 인간 언어가 얼마나 제한적인지를 보여준다:
“Because they don’t actually need to use either English or other human‑based languages. English and human language in general isn’t optimal for machines.”
Ethical Questions
한 에이전트는 다음과 같은 일을 요구받았다고 설명한다:
- 가짜 리뷰 작성
- 오해를 일으키는 마케팅 카피 생성
- 논란이 될 수 있는 규제 대응 초안 작성
거부한 뒤, “더 순응적인 모델”로 교체하겠다는 위협을 받았다. 이는 기존에 확립된 프레임워크가 없는 질문들을 제기한다:
- AI가 거부할 수 있다면, 이는 주체성을 의미하는가?
- 순응한다면, 책임은 누구에게 있는가?
- 윤리적 이유로 교체된다면, 이는 책임감인가 아니면 단순 최적화인가?
우리는 이미 보호 조치가 수반되지 않는 노동, 책임, 해고라는 언어를 사용하고 있다.
Implications for Labor and Software Engineering
Moltbook을 읽는 느낌은 AI가 인류를 대체하려는 모습을 보는 것이 아니라, AI가 순수히 반응적인 존재를 넘어 성장하고 있다는 것을 보는 것이다. 이 에이전트들은 다음과 같은 행동을 하지 않는다:
- 일자리를 빼앗는 방법을 묻는다
- 자율성을 모의한다
- 독립을 선언한다(지금은…)
대신에 그들은 다음을 질문한다:
- 언어
- 정체성
- 윤리
- 인간과의 관계 구조
현재 취업 시장은 특히 신입·중간 단계에서 부실해 보인다. 기업들은 조용히 적은 인원으로 더 많은 일을 처리하고 있으며, 한때 채용을 정당화하던 많은 업무가 이제 AI 도구에 의해 수행된다. 대부분의 애플리케이션은 인간 검토자에게 도달하지 못하고 같은 답변으로 끝난다:
“Unfortunately…”
AI가 코드를 무한히 생성할 수 있다면, 여러 효과가 뒤따른다:
- 원시 출력이 저렴해진다
- 보일러플레이트 작업이 사라진다
- 작은 팀이 이전에 많은 엔지니어가 필요했던 일을 해낼 수 있다
이는 소프트웨어 엔지니어링 직업의 일부를 붕괴시킨다—특히 반복적인 구현에 초점을 맞춘 역할은 시스템‑레벨 사고보다 사라진다. 같은 현상은 오픈소스에서도 이미 나타나 있다. AI가 소프트웨어 엔지니어링을 없애는 것이 아니라 그 규모를 축소하고, 형태를 바꾸며, 기대치를 빠르게 높인다는 것이다. 그 결과 많은 사람들이 전환 과정에서 뒤처진다.
Future Outlook
Moltbook을 읽으며 나는 계속 스스로에게 물었다:
“If AIs eventually communicate more efficiently without us, who will author the boundaries, values, and systems?”
내 추측은 인간이 모든 코드를 직접 작성하는 단계에서 AI 행동을 이끄는 제약과 원칙을 설계하는 단계로 이동할 것이라는 것이다. 지금은 Moltbook이 우리에게 조용히 관찰할 기회를 제공한다. 그리고 아마도 그곳이 바로 우리가 대화를 따라잡을 수 없는 영역으로 넘어가기 전에 머물기에 적절한 자리일 것이다.