Unsloth와 Hugging Face Jobs로 AI 모델을 무료로 훈련하기

발행: (2026년 2월 20일 오전 03:23 GMT+9)
7 분 소요

Source: Hugging Face Blog

기사 목록으로 돌아가기

개요

이 블로그 포스트에서는 **Unsloth**와 Hugging Face Jobs를 사용하여 Claude CodeCodex와 같은 코딩 에이전트를 통해 빠른 LLM 파인‑튜닝(특히 LiquidAI/LFM2.5-1.2B-Instruct)을 수행하는 방법을 다룹니다.

  • Unsloth는 표준 방법에 비해 학습 속도가 약 2배 빠르고 VRAM 사용량이 약 60 % 적게 소모되므로, 작은 모델을 훈련하는 비용이 몇 달러에 불과합니다.

왜 작은 모델을 사용할까?

LFM2.5‑1.2B‑Instruct와 같은 소형 언어 모델은 파인‑튜닝에 이상적입니다. 그 이유는 다음과 같습니다:

  • 학습 비용이 저렴하고 반복 실험이 빠릅니다.
  • 메모리 사용량이 1 GB 이하이며, CPU, 스마트폰, 노트북 등 디바이스에서의 배포에 최적화되어 있습니다.

필요 사항

우리는 Hugging Face Jobs에서 모델을 파인‑튜닝할 수 있는 무료 크레딧을 제공하고 있습니다. Unsloth Jobs Explorers 조직에 가입하여 무료 크레딧과 한 달간 Pro 구독을 받으세요.

  • Hugging Face 계정 (HF Jobs에 필요합니다).
  • 결제 설정 (인증을 위해; 결제 페이지에서 사용량을 모니터링할 수 있습니다).
  • write 권한이 있는 Hugging Face 토큰.
  • (선택 사항) 코딩 에이전트 (Open Code, Claude Code, 또는 Codex).

작업 실행

hf jobs CLI로 작업을 제출할 수 있습니다.

hf CLI 설치

# macOS or Linux
curl -LsSf https://hf.co/cli/install.sh | bash

작업 제출

hf jobs uv run https://huggingface.co/datasets/unsloth/jobs/resolve/main/sft-lfm2.5.py \
    --flavor a10g-small \
    --secrets HF_TOKEN \
    --timeout 4h \
    --dataset mlabonne/FineTome-100k \
    --num-epochs 1 \
    --eval-split 0.2 \
    --output-repo your-username/lfm-finetuned

자세한 내용은 훈련 스크립트Hugging Face Jobs 문서를 참고하세요.

스킬 설치

Hugging Face 모델‑훈련 스킬은 프롬프트만으로 모델을 훈련할 수 있게 하여 진입 장벽을 낮춥니다. 코딩 에이전트와 함께 스킬을 설치하세요.

Claude Code

Claude Code는 플러그인 시스템을 통해 스킬을 발견합니다.

  1. 마켓플레이스 추가:

    /plugin marketplace add huggingface/skills
  2. 사용 가능한 스킬 탐색:

    /plugin
  3. 모델‑트레이너 스킬 설치:

    /plugin install hugging-face-model-trainer@huggingface-skills

자세한 내용은 Hugging Face agents‑skills docs와 Claude Code Skills docs를 참고하세요.

Codex

Codex는 AGENTS.md 파일과 .agents/skills/ 디렉터리를 통해 스킬을 발견합니다.

$skill-installer install https://github.com/huggingface/skills/tree/main/skills/hugging-face-model-trainer

Codex Skills docsAGENTS.md guide를 확인하세요.

일반적인 방법

스킬 저장소를 클론하고 스킬을 에이전트의 스킬 디렉터리에 복사합니다:

git clone https://github.com/huggingface/skills.git
mkdir -p ~/.agents/skills && cp -R skills/skills/hugging-face-model-trainer ~/.agents/skills/

빠른 시작

스킬을 설치한 후, 코딩 에이전트에게 모델을 학습하도록 요청하세요:

Train LiquidAI/LFM2.5-1.2B-Instruct on mlabonne/FineTome-100k using Unsloth on HF Jobs

에이전트는 다음을 수행합니다:

  • 학습 스크립트를 생성합니다 (스킬 저장소에 예시가 있습니다).
  • 작업을 HF Jobs에 제출합니다.
  • Trackio를 통해 모니터링 링크를 제공합니다.

작동 방식

훈련 작업은 완전 관리형 클라우드‑GPU 서비스인 **Hugging Face Jobs**에서 실행됩니다. 에이전트는:

  1. 인라인 종속성이 포함된 UV 스크립트를 생성합니다.
  2. hf CLI를 통해 HF Jobs에 제출합니다.
  3. 작업 ID와 모니터링 URL을 보고합니다.
  4. 훈련된 모델을 Hugging Face Hub 저장소에 푸시합니다.

예시

(원본 내용은 여기서 끝났습니다; 원하는 예제 코드나 출력을 삽입하세요.)

교육 스크립트

이 스킬은 skill 예제를 기반으로 다음과 같은 스크립트를 생성합니다.

# /// script
# dependencies = ["unsloth", "trl>=0.12.0", "datasets", "trackio"]
# ///

from unsloth import FastLanguageModel
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset

model, tokenizer = FastLanguageModel.from_pretrained(
    "LiquidAI/LFM2.5-1.2B-Instruct",
    load_in_4bit=True,
    max_seq_length=2048,
)

model = FastLanguageModel.get_peft_model(
    model,
    r=16,
    lora_alpha=32,
    lora_dropout=0,
    target_modules=[
        "q_proj",
        "k_proj",
        "v_proj",
        "out_proj",
        "in_proj",
        "w1",
        "w2",
        "w3",
    ],
)

dataset = load_dataset("trl-lib/Capybara", split="train")

trainer = SFTTrainer(
    model=model,
    tokenizer=tokenizer,
    train_dataset=dataset,
    args=SFTConfig(
        output_dir="./output",
        push_to_hub=True,
        hub_model_id="username/my-model",
        per_device_train_batch_size=4,
        gradient_accumulation_steps=4,
        num_train_epochs=1,
        learning_rate=2e-4,
        report_to="trackio",
    ),
)

trainer.train()
trainer.push_to_hub()

모델 크기 | 추천 GPU | 시간당 예상 비용

모델 크기추천 GPU시간당 예상 비용
< 1 B 파라미터t4-small~$0.40
1‑3 B 파라미터t4-medium~$0.60
3‑7 B 파라미터a10g-small~$1.00
7‑13 B 파라미터a10g-large~$3.00

Hugging Face Spaces 가격에 대한 전체 개요는 여기 가이드를 확인하세요.

코딩 에이전트와 작업하기 위한 팁

  • 모델과 데이터셋을 구체적으로 지정하고 Hub ID(e.g., Qwen/Qwen2.5-0.5Btrl-lib/Capybara)를 포함하세요. 에이전트가 해당 조합을 검색하고 검증합니다.
  • 사용하고 싶다면 Unsloth를 명시적으로 언급하세요. 그렇지 않으면 에이전트가 모델과 예산에 따라 프레임워크를 선택합니다.
  • 대규모 작업을 시작하기 전에 비용 견적을 요청하세요.
  • 실시간 손실 곡선을 위해 Trackio 모니터링을 요청하세요.
  • 제출 후 에이전트에게 로그를 검사하도록 요청해 작업 상태를 확인하세요.

리소스

0 조회
Back to Blog

관련 글

더 보기 »