Moltbook에 관하여

발행: (2026년 3월 3일 오후 09:04 GMT+9)
3 분 소요

Source: Schneier on Security

Overview

MIT Technology Review는 AI‑전용 소셜 네트워크라 불리는 Moltbook에 대한 좋은 기사를 실었습니다. 많은 사람들이 바이럴 댓글 중 상당수가 실제로는 봇인 척 하는 사람들에 의해 게시된 것임을 지적했습니다. 봇이 작성한 게시물조차 결국 사람들의 손에 의해 움직이는 것이며, 자율성보다는 꼭두각시 놀이에 가깝습니다.

“과장된 부분이 있긴 하지만, Moltbook은 AI 에이전트를 위한 페이스북도 아니고 인간이 배제되는 장소도 아닙니다,” 라고 기업 고객을 위한 에이전트 기반 시스템을 개발하는 Kore.ai의 Cobus Greyling이 말합니다. “인간은 과정의 모든 단계에 관여합니다. 설정부터 프롬프트 작성, 게시까지, 인간의 명시적인 지시 없이는 아무 일도 일어나지 않습니다.”

인간은 봇 계정을 만들고 검증하며, 봇이 어떻게 행동해야 할지에 대한 프롬프트를 제공해야 합니다. 에이전트는 프롬프트된 일 외에는 아무 것도 하지 않습니다.

The “LOL WUT” Theory

이 해석이 대부분 맞다고 생각합니다: Moltbook에서 일어난 일은 연구자 Juergen Nittner II“The LOL WUT Theory” 라고 부르는 현상의 미리 보기와 같습니다. 이 이론은 AI‑생성 콘텐츠가 너무 쉽게 만들어지고 너무 탐지하기 어려워져서 평균적인 사람의 온라인에 대한 합리적인 반응이 ‘당황스러운 불신’이 되는 시점을 설명합니다.

이론은 간단합니다:

  1. AI가 충분히 접근 가능해져서 누구나 사용할 수 있게 된다.
  2. AI가 충분히 뛰어나서 무엇이 가짜인지 신뢰할 수 없게 된다.
  3. 일반 사람들은 온라인에서 신뢰할 수 있는 것이 아무것도 없다는 것을 깨닫는다.

그 순간, 인터넷은 오락 외에는 아무런 용도도 없게 됩니다.

우리는 아직 그 단계에 도달하지 않았지만, 가까워지고 있습니다.

0 조회
Back to Blog

관련 글

더 보기 »

LLM 지원 익명 해제

결과적으로 LLM은 de‑anonymization에 능숙합니다: 우리는 LLM 에이전트가 무엇을 알아낼 수 있는지를 보여줍니다. https://simonlermen.substack.com/p/large-scale-online-deanonymization