Claude Code를 사용하여 Advent of Code 2025 해결하기

발행: (2026년 1월 3일 오후 05:41 GMT+9)
7 min read
원문: Dev.to

Source: Dev.to

소개

솔직히 말하자면: LLM이 있으면 Advent of Code의 재미가 사라진다. 퍼즐을 ChatGPT나 Claude에 붙여넣으면 몇 초 만에 작동하는 해답을 얻을 수 있다. 그래서 나는 어쨌든 해봤지만, Advent of Code 2025와 함께 다른 실험을 해보았다: 코드를 한 줄도 쓰지 않았다면? 대신 Claude Code에게 단 하나의 지시 파일을 주고 퍼즐을 완전히 자율적으로 해결하게 했다.

그 결과: 22개의 도전 중 20개 해결 (성공률 91%) 인간이 작성한 코드는 전혀 없었다.

자세한 내용은 내 repo를 확인해 보라.

Source: https://github.com/dinesh-GDK/claude-code-advent-of-code-2025/blob/main/INSTRUCTIONS.md

설정

나는 INSTRUCTIONS.md라는 단일 파일을 만들었으며, 매일 다음과 같은 12단계 프로세스를 정의했습니다:

  1. ./day_xx/ 폴더를 생성합니다.
  2. Advent of Code 퍼즐 페이지로 이동합니다.
  3. 입력을 ./day_xx/input.txt에 저장합니다.
  4. Part 1을 읽고 전략을 ./day_xx/README.md에 작성합니다.
  5. ./day_xx/part1.py를 작성합니다.
    • 예제와 테스트합니다.
    • 실제 입력으로 실행하고 제출합니다.
  6. README에 Part 2 전략을 작성합니다.
  7. ./day_xx/part2.py를 작성합니다.
    • Part 2를 테스트합니다.
    • Part 2를 실행합니다.
    • Part 2 답을 제출합니다.

그런 다음 에이전트를 실행했습니다:

claude --chrome --dangerously-skip-permissions

참고: --dangerously-skip-permissions 플래그는 모든 안전 검사를 우회합니다. 이는 프로덕션 환경에서는 매우 위험하지만, 에이전트가 웹사이트를 탐색하고 답을 자동으로 제출해야 하는 이번 실험에서는 필요했습니다.

무슨 일이 있었는가

Claude Code는 전체 워크플로를 독립적으로 실행했습니다:

  • Chrome 통합을 사용해 Advent of Code를 탐색했습니다.
  • 스스로 퍼즐 설명을 읽었습니다.
  • 해결 전략을 개발하고 문서화했습니다.
  • Python 코드를 작성하고 테스트했습니다.
  • 웹사이트에 답을 제출했습니다.
  • 답이 틀렸을 때 스스로 교정했습니다.

제가 작성한 코드는 전혀 없습니다. 단지 지시 파일만 있었습니다.

결과

  • 완료: 2‑8일 (두 파트 모두), 9일 파트 1, 10‑11일 (두 파트 모두), 12일 파트 1
  • 실패: 9일 파트 2, 12일 파트 2
  • 전체: 20/22 챌린지 = 91% 자동 완성

리포지토리는 2‑12일 동안 약 42개의 Python 파일을 생성했으며, 각 파일에는 전체 솔루션 코드, 테스트 파일 및 문서화된 추론이 포함됩니다.

예시: Day 2 전략

  • Part 1: 위치 0부터 시작하는 모든 부분 문자열이 바로 뒤에 바로 나타나는 경우(정확히 두 번 반복)를 감지하여 제품 ID를 찾습니다.
  • Part 2: 그 부분 문자열을 최소 2번 이상 반복하여 전체 문자열을 구성할 수 있는 경우를 포착하도록 확장합니다.

에이전트는 문제를 스스로 논리적으로 분석하고, 알고리즘적 접근 방식을 식별한 뒤 구현했습니다—지시 템플릿 외에 인간의 안내 없이 수행되었습니다.

제한 사항

91% 성공률에도 불구하고, 에이전트는 두 가지 도전 과제에서 실패했습니다:

  • Day 9 Part 2: 에이전트가 생성하지 못한 알고리즘 통찰이 필요했을 가능성이 있는 복잡한 디스크 조각 모음 문제.
  • Day 12 Part 2: Day 9 Part 2의 실패로 인해 차단됨(의존성 문제).

일부 문제는 여전히 인간의 알고리즘 직관과 창의적인 문제 해결이 필요합니다. 에이전트는 실행에 뛰어나지만 새로운 알고리즘 통찰을 얻는 데 어려움을 겪을 수 있습니다.

결론

이것은 페어 프로그래밍이나 AI 지원에 관한 것이 아니었습니다. 시작부터 끝까지 자율 실행에 관한 것이었습니다.

에이전트는 웹사이트를 탐색하고, 자연어 설명을 읽으며, 전략을 수립하고, 코드를 작성하고, 실패를 디버깅하며, 결과를 제출했습니다—모두 독립적으로 수행했습니다. 인간의 유일한 입력은 절차적 지시 파일이었습니다.

완전한 자율 개발에 준비가 되었나요? 아직은 아닙니다. 9%의 실패율은 특히 복잡한 알고리즘적 사고가 필요할 때 중요합니다. 그러나 다양한 프로그래밍 과제에서 91%의 자율 완성률은 우리가 예상보다 더 가까워졌음을 시사합니다.

미래는 AI가 개발자를 대체하는 것이 아니라, 개발자가 자율 에이전트를 조율하는 것입니다—고수준의 방향을 제공하고 에이전트가 실행, 테스트, 반복을 담당합니다.

전체 자동 생성 코드와 대화 기록을 보려면 전체 저장소를 확인하세요.

Back to Blog

관련 글

더 보기 »

Kiro: 즉시 금융 및 비용 추적

![Kiro용 표지 이미지: Instant Finance & Expense Tracking](https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=auto/h…)