LLM이 위임할 때 문서를 손상시킵니다

발행: (2026년 5월 9일 PM 05:44 GMT+9)
3 분 소요

Source: Hacker News

Abstract

대형 언어 모델(LLM)은 지식 작업을 혁신할 준비가 되어 있으며, 위임 작업(delegated work)이라는 새로운 상호작용 패러다임(예: vibe coding)의 등장으로 그 가능성이 커지고 있습니다. 위임에는 신뢰가 필요합니다—즉, LLM이 문서에 오류를 도입하지 않고 작업을 충실히 수행할 것이라는 기대입니다.

우리는 DELEGATE-52를 도입하여 위임 워크플로우에서 AI 시스템의 준비 상태를 연구합니다. DELEGATE-52는 코딩, 결정학, 악보 표기 등 52개의 전문 분야에 걸쳐 깊이 있는 문서 편집이 요구되는 장기 위임 워크플로우를 시뮬레이션합니다.

19개의 LLM을 대상으로 한 대규모 실험 결과, 현재 모델들은 위임 과정에서 문서를 손상시킨다는 것이 밝혀졌습니다: 최첨단 모델들(Gemini 3.1 Pro, Claude 4.6 Opus, GPT 5.4)조차도 장기 워크플로우가 끝날 때까지 문서 내용의 평균 **25 %**를 손상시키며, 다른 모델들은 더 심각하게 실패합니다. 추가 실험에서는 에이전시 도구 사용이 DELEGATE-52에서 성능을 향상시키지 못하고, 손상 정도가 문서 크기, 상호작용 길이, 혹은 방해 파일의 존재에 의해 악화된다는 점을 확인했습니다.

우리 분석은 현재 LLM이 신뢰할 수 없는 위임자임을 보여줍니다: 이들은 드물지만 심각한 오류를 조용히 문서에 삽입하며, 장기간 상호작용 동안 오류가 누적됩니다.

0 조회
Back to Blog

관련 글

더 보기 »

1세대 — 독립형 모델 (2018–2022)

현대 AI 시스템의 기반 사람들이 ChatGPT와 같은 도구를 생각할 때, 종종 지능이 단일 강력한 시스템에서 “기억…”이라고 가정합니다.

우리는 AI에게 사고를 가르치지 않는다

우리 대부분은 AI에게 프롬프트를 할 때 그 사고를 안내함으로써 배웠다: - “단계별로 생각해 보세요.” - “다음은 이를 해결하는 예시입니다.” - “먼저 A를 확인하고, 그 다음 B를 비교하고, …”