Unsloth와 Hugging Face Jobs로 AI 모델을 무료로 훈련하세요

발행: (2026년 2월 20일 오전 09:00 GMT+9)
8 분 소요

Source: Hugging Face Blog






개요

이 블로그 포스트에서는 **Unsloth**와 Hugging Face Jobs를 사용하여 코딩 에이전트인 Claude Code와 Codex와 함께 빠른 LLM 파인‑튜닝을 수행하는 방법을 다룹니다 (특히 LiquidAI/LFM2.5-1.2B-Instruct). Unsloth는 표준 방법에 비해 약 2배 빠른 학습 속도와 약 60 % 적은 VRAM 사용량을 제공하므로, 작은 모델을 훈련하는 비용을 몇 달러 수준으로 낮출 수 있습니다.

왜 작은 모델인가?

  • 훈련 비용이 저렴하고 빠르게 반복할 수 있습니다.
  • 특정 작업에서 훨씬 큰 모델들과 경쟁할 수 있습니다.
  • 메모리 1 GB 이하로 실행되며, 온‑디바이스 배포(CPU, 휴대폰, 노트북)에 최적화되어 있습니다.

Unsloth + Jobs 스크린샷

필요 사항

우리는 Hugging Face Jobs에서 모델을 파인튜닝할 수 있는 무료 크레딧을 제공하고 있습니다. Unsloth Jobs Explorers 조직에 가입하여 무료 크레딧과 1개월 Pro 구독을 받으세요.

  • A Hugging Face account (required for HF Jobs). → - Hugging Face 계정 (HF Jobs에 필요합니다).
  • Billing setup (for verification; you can monitor usage and manage billing on your billing page). → - 결제 설정 (인증을 위해; 사용량을 모니터링하고 결제 페이지에서 결제를 관리할 수 있습니다).
  • A Hugging Face token with write permissions. → - write 권한이 있는 Hugging Face 토큰.
  • (Optional) A coding agent (Open Code, Claude Code, or Codex). → - (선택 사항) 코딩 에이전트 (Open Code, Claude Code, 또는 Codex).

작업 실행

HF Jobs와 Unsloth를 사용해 모델을 학습하려면 hf jobs CLI를 사용해 작업을 제출하면 됩니다.

  1. hf CLI 설치

    # macOS 또는 Linux
    curl -LsSf https://hf.co/cli/install.sh | bash
  2. 작업 제출

    hf jobs uv run https://huggingface.co/datasets/unsloth/jobs/resolve/main/sft-lfm2.5.py \
        --flavor a10g-small \
        --secrets HF_TOKEN \
        --timeout 4h \
        --dataset mlabonne/FineTome-100k \
        --num-epochs 1 \
        --eval-split 0.2 \
        --output-repo your-username/lfm-finetuned

    자세한 내용은 학습 스크립트Hugging Face Jobs 문서를 참고하세요.

스킬 설치

Hugging Face 모델‑트레이닝 스킬은 프롬프트만으로 모델을 학습시킬 수 있게 하여 진입 장벽을 낮춥니다. 먼저 코딩 에이전트에 스킬을 설치하세요.

Claude Code

Claude Code는 플러그인 시스템을 통해 스킬을 발견합니다. Hugging Face 스킬을 설치하려면 다음을 실행하세요:

/plugin marketplace add huggingface/skills   # 마켓플레이스 추가
/plugin                                      # 사용 가능한 스킬 탐색
/plugin install hugging-face-model-trainer@huggingface-skills

자세한 내용은 Hub‑with‑Skills 문서 또는 Claude Code 스킬 문서를 참고하세요.

Codex

Codex는 AGENTS.md 파일과 .agents/skills/ 디렉터리를 통해 스킬을 발견합니다. $skill-installer를 사용해 스킬을 설치하세요:

$skill-installer install https://github.com/huggingface/skills/tree/main/skills/hugging-face-model-trainer

자세한 내용은 Codex 스킬 문서AGENTS.md 가이드를 확인하세요.

일반적인 방법

스킬 저장소를 클론한 뒤 원하는 스킬을 에이전트의 스킬 디렉터리로 복사합니다:

git clone https://github.com/huggingface/skills.git
mkdir -p ~/.agents/skills && cp -R skills/skills/hugging-face-model-trainer ~/.agents/skills/

빠른 시작

스킬이 설치되면, 코딩 에이전트에게 모델을 학습하도록 요청하세요:

Train LiquidAI/LFM2.5-1.2B-Instruct on mlabonne/FineTome-100k using Unsloth on HF Jobs

에이전트는 다음을 수행합니다:

  1. 스킬에 있는 예시를 기반으로 학습 스크립트를 생성합니다.
  2. 작업을 HF Jobs에 제출합니다.
  3. Trackio를 통해 모니터링 링크를 제공합니다.
  4. 학습된 모델을 Hugging Face Hub 저장소에 푸시합니다.

How It Works

훈련 작업은 완전 관리형 클라우드‑GPU 서비스인 **Hugging Face Jobs**에서 실행됩니다. 에이전트는:

  • 인라인 종속성이 포함된 UV 스크립트를 생성합니다.
  • hf CLI를 통해 HF Jobs에 제출합니다.
  • 작업 ID와 모니터링 URL을 보고합니다.
  • 훈련된 모델을 Hub 저장소에 푸시합니다.

예시

(여기에 예시 사용법이나 출력 결과를 삽입하세요.)

훈련 스크립트

이 스킬은 skill 예제를 기반으로 다음과 같은 스크립트를 생성합니다.

# /// script
# dependencies = ["unsloth", "trl>=0.12.0", "datasets", "trackio"]
# ///

from unsloth import FastLanguageModel
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset

model, tokenizer = FastLanguageModel.from_pretrained(
    "LiquidAI/LFM2.5-1.2B-Instruct",
    load_in_4bit=True,
    max_seq_length=2048,
)

model = FastLanguageModel.get_peft_model(
    model,
    r=16,
    lora_alpha=32,
    lora_dropout=0,
    target_modules=[
        "q_proj",
        "k_proj",
        "v_proj",
        "out_proj",
        "in_proj",
        "w1",
        "w2",
        "w3",
    ],
)

dataset = load_dataset("trl-lib/Capybara", split="train")

trainer = SFTTrainer(
    model=model,
    tokenizer=tokenizer,
    train_dataset=dataset,
    args=SFTConfig(
        output_dir="./output",
        push_to_hub=True,
        hub_model_id="username/my-model",
        per_device_train_batch_size=4,
        gradient_accumulation_steps=4,
        num_train_epochs=1,
        learning_rate=2e-4,
        report_to="trackio",
    ),
)

trainer.train()
trainer.push_to_hub()

모델 크기 | 추천 GPU | 시간당 예상 비용

모델 크기추천 GPU시간당 예상 비용
< 1 B 파라미터t4-small~$0.40
1‑3 B 파라미터t4-medium~$0.60
3‑7 B 파라미터a10g-small~$1.00
7‑13 B 파라미터a10g-large~$3.00

Hugging Face Spaces 가격에 대한 전체 개요는 **여기**에서 확인하세요.

코딩 에이전트와 작업하기 위한 팁

  • 사용할 모델과 데이터셋을 구체적으로 명시하고 Hub ID를 포함하세요 (예: Qwen/Qwen2.5-0.5Btrl-lib/Capybara). 에이전트는 해당 조합을 검색하고 검증합니다.
  • Unsloth를 사용하고 싶다면 명시적으로 언급하세요; 그렇지 않으면 에이전트가 모델과 예산에 따라 프레임워크를 선택합니다.
  • 대규모 작업을 시작하기 전에 비용 견적을 요청하세요.
  • 실시간 손실 곡선을 위한 Trackio 모니터링을 요청하세요.
  • 제출 후 로그를 검사하도록 에이전트에 요청해 작업 상태를 확인하세요.

리소스

0 조회
Back to Blog

관련 글

더 보기 »

멋진 AI 에이전트 논문 2026

!Awesome AI Agent Papers 2026의 표지 이미지https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-u...