네트워크 분석 분야에서 나와 동료들을 위한 로컬 AI 모델 선택

발행: (2026년 2월 17일 오후 01:20 GMT+9)
4 분 소요
원문: Dev.to

Source: Dev.to

C++로 개발했으며, 고객 현장에서 직접 작업하는 경우가 많았습니다. 오프라인 작업이라 ChatGPT, Claude, Gemini 등에 접근할 수 없었습니다. 그 공백을 메우기 위해 몇 가지 로컬 LLM을 실험해 보았습니다. 아래는 (아직 개인적인) 시도 내용, 성공 여부, 그리고 실패한 점에 대한 요약입니다.

테스트 방법

  1. 프롬프트 만들기 – 먼저 모델에게 시키고 싶은 작업을 결정해야 했습니다.
  2. 랭킹 추출 – 분석기에서 “랭킹”을 가져와 각 열에 대한 짧은 설명을 작성하고, 표를 해석하는 방법에 대한 지시를 추가했습니다.
  3. 모델 실행 – 프롬프트와 표 데이터를 LLM에 입력하고 출력물을 평가합니다.

Google에서 “오픈 세서미”까지

모델첫인상결과 품질비고
Gemma‑3 (Google)다재다능하고 빠르며 가볍다 (내 기준)좋지만 때때로 세부 사항을 놓침가끔 부정확하거나 과도하게 변경된 답변 때문에 결국 포기함.
Qwen‑3 (thinking model)Gemma‑3보다 느리지만 품질이 훨씬 좋음일관되게 정확함사용 가능해지자 인스트럭트 버전으로 전환함.
DeepSeek‑R1실패 – 보고서가 의미가 없었음.
LG EXAOne괜찮음 (Qwen‑3‑Instruct와 동등함)상업적으로 사용 불가 (라이선스 제한)

“와, 너무 너무 느려요” – Mistral 등장

Qwen‑3 사고 모델은 훌륭한 답변을 제공했지만 생성하는 데 시간이 오래 걸렸습니다. “사고” 모드를 비활성화하려 했지만 스위치가 작동하지 않았습니다. Qwen‑3‑Instruct 모델이 드디어 나오자, 저는 Mistral AI에 주목했습니다.

모델경험
Mistral Small (years ago)실망적이었음.
Mistral‑3견고한 보고서를 생성하며, (Gemma‑3와 달리) 지시 세부 사항을 거의 놓치지 않음.
DevStral‑Small 3.2짧은 코드 스니펫에 좋지만 FIM(중간 채우기)이 없어도 여전히 유용함.
Qwen‑3‑Coder코드를 100 % 환각함 (존재하지 않는 STL‑유사 호출).
Qwen‑3‑Coder‑Next정확하지만 지나치게 장황함 – 작은 프로젝트에 가치가 없는 “문학적” C++.

Note: 현재 한국은 설날 연휴라서 당분간 쉬겠습니다. 모두가 새로운 설정을 마음에 들어 주시길 바랍니다!

0 조회
Back to Blog

관련 글

더 보기 »

채용 중인 기업 — 2026년 2월

Dev‑First 기업의 오픈 포지션: Product engineers, Developer advocates, 혹은 Community builders? 새해를 맞아 dev tools 분야에서 새로운 기회를 시작하세요.