[Paper] 대규모 언어 모델을 활용한 유닛 테스트 생성: 성취, 도전 과제, 그리고 앞으로의 길
Source: arXiv - 2511.21382v1
Overview
단위 테스트는 소프트웨어를 검증하고 회귀 위험을 완화하기 위한 필수적이면서도 노동집약적인 기법입니다. 고전적인 자동화 방법은 프로그램 구조를 효과적으로 탐색하지만, 현실적인 입력과 어설션을 생성하는 데 필요한 의미 정보를 종종 결여합니다. 대형 언어 모델(LLM)은 코드 의미와 프로그래밍 패턴에 대한 데이터 기반 지식을 활용함으로써 이 한계를 극복합니다.
이 분야의 최신 동향을 분석하기 위해 2021년 5월부터 2025년 8월까지 발표된 115편의 논문을 체계적으로 검토했습니다. 우리는 LLM을 확률적 생성기로 보고 체계적인 엔지니어링 제약이 필요하다는 관점에서 단위 테스트 생성 라이프사이클을 기반으로 통합 분류 체계를 제안합니다. 이 프레임워크는 핵심 생성 전략과 사전‑생성 컨텍스트 강화부터 사후‑생성 품질 보증에 이르는 일련의 향상 기법을 문헌에 적용해 분석합니다.
분석 결과, 프롬프트 엔지니어링이 유연성 때문에 **89 %**의 연구에서 가장 많이 활용되는 전략으로 부상했음을 확인했습니다. 반복적인 검증 및 수리 루프가 견고한 사용성을 보장하는 표준 메커니즘이 되어, 컴파일 및 실행 성공률을 크게 향상시켰습니다. 그러나 생성된 테스트의 약한 결함 탐지 능력과 표준화된 평가 벤치마크의 부재라는 중요한 과제가 여전히 남아 있습니다.
우리는 향후 연구 로드맵을 제시하며, 자율 테스트 에이전트와 전통적인 소프트웨어 엔지니어링 도구와 LLM을 결합한 하이브리드 시스템으로의 전환을 강조합니다. 이 조사 연구는 LLM의 잠재력을 산업 수준의 테스트 솔루션으로 전환하려는 연구자와 실무자에게 포괄적인 관점을 제공합니다.
Authors
- Bei Chu
- Yang Feng
- Kui Liu
- Zifan Nan
- Zhaoqiang Guo
- Baowen Xu
Categories
cs.SE
Paper Information
- arXiv ID: 2511.21382v1
- Categories: cs.SE
- Published: November 26, 2025
- PDF: Download PDF