로컬 LLM + GitHub 워크플로우를 이용한 LeetCode 문서 자동화
Source: Dev.to

이것은 DEV Weekend Challenge: Community에 대한 제출물입니다.
커뮤니티
이 프로젝트는 LeetCode 문제를 적극적으로 풀고 학습 내용을 공개적으로 공유하는 개발자를 위해 만들어졌습니다. 많은 개발자들이 꾸준함을 유지하고, 공개적으로 프로젝트를 진행하며, 코딩 커뮤니티 내에서 성장하고자 하지만, 문서화 과정은 종종 반복적이고 시간이 많이 소요됩니다.
저는 이 워크플로우의 마찰을 줄이고 개발자들이 수동적인 문서 작업보다 문제 해결에 더 집중할 수 있도록 이 도구를 만들었습니다.
내가 만든 것
LeetCode AutoSync은 CLI 자동화 도구로:
- 구조화된 메타데이터와 함께 로컬에 LeetCode 솔루션을 추가합니다
- 난이도별로 README를 자동으로 업데이트하고 정렬합니다
- 로컬에 호스팅된 LLM(Ollama 사용)으로 고품질 구조화된 솔루션 작성물을 생성합니다
- 토큰 사용량 및 성능 지표를 Excel 시트에 기록합니다
- 여러 프로그래밍 언어(Python, SQL, C++, Java)를 지원합니다
- 백그라운드 워커 큐를 사용해 AI 콘텐츠를 비동기적으로 생성합니다
- 모델 수명 주기를 관리하고 우아하게 종료합니다
대체되는 수동 작업
- 동일한 마크다운 섹션 작성
- README 항목 업데이트
- 코드 블록 포맷팅
- 구조화된 설명 복사
데모
비디오: 👉 https://www.loom.com/share/589028a173444af191f4788ff7f25a42
GitHub 저장소: 👉 https://github.com/micheal000010000-hub/LEETCODE-AUTOSYNC
도구는 CLI로 로컬에서 실행되며 다음과 통합됩니다:
- Python 스레딩 + 큐 시스템
- Ollama (로컬 LLM 추론)
- GitHub 워크플로우
- 구조화된 Markdown 생성
- 토큰 분석 로깅
코드
You can view the full source code here: 👉 https://github.com/micheal000010000-hub/LEETCODE-AUTOSYNC
아키텍처 개요
autosync.py— CLI 컨트롤러 및 큐 매니저repo_manager.py— 파일 처리 및 README 정렬 로직llm_generator.py— LLM 통합 및 토큰 텔레메트리 로깅git_manager.py— Git 자동화config.py— 환경 설정
How I Built It
🧠 Architecture
이 도구는 producer‑consumer 모델을 따릅니다:
- 메인 CLI 스레드가 솔루션 생성 작업을 큐에 넣습니다.
- 백그라운드 워커가 큐를 사용해 작업을 처리합니다.
- 스레드‑안전 상태 추적은 락으로 관리됩니다.
- 알림은 버퍼링되어 콘솔 방해를 방지합니다.
- graceful shutdown을 통해 작업이 손실되지 않도록 합니다.
⚙️ Technologies Used
- Python
- Threading + Queue
- Ollama (로컬 LLM 추론)
- Mistral 모델
requests(HTTP 호출)openpyxl(Excel 로깅)subprocess를 이용한 Git 자동화- Structured Markdown 생성
🚀 LLM Integration
Ollama를 통해 로컬에 호스팅된 LLM을 사용함으로써 클라우드 API를 대체하고, 다음을 가능하게 합니다:
- API 호출 제한 없음
- 리소스 사용에 대한 완전한 제어
- 추론 텔레메트리 캡처
- 프롬프트 토큰, 응답 토큰, 생성 지연 시간 로깅
📊 Observability
각 생성 과정은 다음을 로그합니다:
- Prompt tokens
- Response tokens
- Total tokens
- Load duration
- Generation duration
- Tokens per second
이를 통해 가벼운 LLM 관측 레이어가 구축됩니다.
What I Learned
- 동시성 CLI 애플리케이션 설계
- 백그라운드 워커를 활용한 블로킹 작업 회피
- 락을 이용한 공유 상태 안전 관리
- graceful shutdown 패턴 구현
- 모델 라이프사이클 관리
- LLM 추론 성능 텔레메트리 수집
- 실제 개발자 워크플로우 문제를 해결하는 도구 제작
Why This Matters
커뮤니티 기반 성장에서는 일관성이 전부입니다. 문서화, 포맷팅, GitHub 동기화를 자동화함으로써 이 도구는 지식 공유 과정의 마찰을 없앱니다.
마찰 감소 → 공유 증가 → 더 강한 개발자 커뮤니티.
읽어 주셔서 감사합니다! 🚀