[Paper] Large Language Models에서 Model Merging 기법에 대한 체계적 연구
Source: arXiv
초록
Model merging은 추가 학습 없이 여러 fine‑tuned 체크포인트를 하나의 모델로 결합하여 모델 재사용과 효율적인 성능 향상을 가능하게 하는 매력적인 접근법입니다. 그러나 작은 모델과 분류기에서 보고된 장점이 LLM에까지 일반화되는지는 아직 명확하지 않습니다. 우리는 최신 subspace 방법을 포함한 여섯 가지 최첨단 merging 방법을 네 개의 open‑weight LLM, 각 기본 모델당 열두 개의 fine‑tuned 체크포인트, 그리고 열여섯 개의 표준 LLM 벤치마크에 걸쳐 대규모 체계적 평가를 수행했습니다. 표준화된 벤치마크를 통해 평가하면서, 병합된 모델이 기본 모델보다 우수할 확률과 최상의 개별 체크포인트 대비 상대적 향상을 측정했습니다. 결과는 가장 오래되고 가장 단순한 방법인 Task Arithmetic만이 LLM에서 일관되게 성능 향상을 제공한다는 것을 보여줍니다. 다른 interference‑aware 및 subspace merging 방법들은 대체로 상당한 성능 저하를 초래합니다. 우리의 발견은 현재의 merging 기술이 최신 LLM에 직접 적용되기 어렵다는 것을 시사합니다. 이는 LLM‑특화 merging 알고리즘 및 merging‑aware fine‑tuning 방법의 설계를 촉구합니다. 코드는 이 논문이 채택될 경우 공개될 예정입니다.
주제
- Computation and Language (cs.CL)
- Machine Learning (cs.LG)
인용
arXiv:2511.21437 (cs.CL)
DOI
https://doi.org/10.48550/arXiv.2511.21437
제출 기록
v1 – Wed, 26 Nov 2025 14:28:11 UTC (2,098 KB)