Unsloth와 Hugging Face Jobs로 AI 모델을 무료로 훈련하세요
Source: Hugging Face Blog
개요
이 블로그 포스트에서는 **Unsloth**와 Hugging Face Jobs를 사용하여 코딩 에이전트인 Claude Code와 Codex와 함께 빠른 LLM 파인‑튜닝을 수행하는 방법을 다룹니다 (특히 LiquidAI/LFM2.5-1.2B-Instruct). Unsloth는 표준 방법에 비해 약 2배 빠른 학습 속도와 약 60 % 적은 VRAM 사용량을 제공하므로, 작은 모델을 훈련하는 비용을 몇 달러 수준으로 낮출 수 있습니다.
왜 작은 모델인가?
- 훈련 비용이 저렴하고 빠르게 반복할 수 있습니다.
- 특정 작업에서 훨씬 큰 모델들과 경쟁할 수 있습니다.
- 메모리 1 GB 이하로 실행되며, 온‑디바이스 배포(CPU, 휴대폰, 노트북)에 최적화되어 있습니다.

필요 사항
우리는 Hugging Face Jobs에서 모델을 파인튜닝할 수 있는 무료 크레딧을 제공하고 있습니다. Unsloth Jobs Explorers 조직에 가입하여 무료 크레딧과 1개월 Pro 구독을 받으세요.
- A Hugging Face account (required for HF Jobs). → - Hugging Face 계정 (HF Jobs에 필요합니다).
- Billing setup (for verification; you can monitor usage and manage billing on your billing page). → - 결제 설정 (인증을 위해; 사용량을 모니터링하고 결제 페이지에서 결제를 관리할 수 있습니다).
- A Hugging Face token with write permissions. → - write 권한이 있는 Hugging Face 토큰.
- (Optional) A coding agent (
Open Code,Claude Code, orCodex). → - (선택 사항) 코딩 에이전트 (Open Code,Claude Code, 또는Codex).
작업 실행
HF Jobs와 Unsloth를 사용해 모델을 학습하려면 hf jobs CLI를 사용해 작업을 제출하면 됩니다.
-
hfCLI 설치# macOS 또는 Linux curl -LsSf https://hf.co/cli/install.sh | bash -
작업 제출
hf jobs uv run https://huggingface.co/datasets/unsloth/jobs/resolve/main/sft-lfm2.5.py \ --flavor a10g-small \ --secrets HF_TOKEN \ --timeout 4h \ --dataset mlabonne/FineTome-100k \ --num-epochs 1 \ --eval-split 0.2 \ --output-repo your-username/lfm-finetuned자세한 내용은 학습 스크립트와 Hugging Face Jobs 문서를 참고하세요.
스킬 설치
Hugging Face 모델‑트레이닝 스킬은 프롬프트만으로 모델을 학습시킬 수 있게 하여 진입 장벽을 낮춥니다. 먼저 코딩 에이전트에 스킬을 설치하세요.
Claude Code
Claude Code는 플러그인 시스템을 통해 스킬을 발견합니다. Hugging Face 스킬을 설치하려면 다음을 실행하세요:
/plugin marketplace add huggingface/skills # 마켓플레이스 추가
/plugin # 사용 가능한 스킬 탐색
/plugin install hugging-face-model-trainer@huggingface-skills
자세한 내용은 Hub‑with‑Skills 문서 또는 Claude Code 스킬 문서를 참고하세요.
Codex
Codex는 AGENTS.md 파일과 .agents/skills/ 디렉터리를 통해 스킬을 발견합니다. $skill-installer를 사용해 스킬을 설치하세요:
$skill-installer install https://github.com/huggingface/skills/tree/main/skills/hugging-face-model-trainer
자세한 내용은 Codex 스킬 문서와 AGENTS.md 가이드를 확인하세요.
일반적인 방법
스킬 저장소를 클론한 뒤 원하는 스킬을 에이전트의 스킬 디렉터리로 복사합니다:
git clone https://github.com/huggingface/skills.git
mkdir -p ~/.agents/skills && cp -R skills/skills/hugging-face-model-trainer ~/.agents/skills/
빠른 시작
스킬이 설치되면, 코딩 에이전트에게 모델을 학습하도록 요청하세요:
Train LiquidAI/LFM2.5-1.2B-Instruct on mlabonne/FineTome-100k using Unsloth on HF Jobs
에이전트는 다음을 수행합니다:
- 스킬에 있는 예시를 기반으로 학습 스크립트를 생성합니다.
- 작업을 HF Jobs에 제출합니다.
- Trackio를 통해 모니터링 링크를 제공합니다.
- 학습된 모델을 Hugging Face Hub 저장소에 푸시합니다.
How It Works
훈련 작업은 완전 관리형 클라우드‑GPU 서비스인 **Hugging Face Jobs**에서 실행됩니다. 에이전트는:
- 인라인 종속성이 포함된 UV 스크립트를 생성합니다.
hfCLI를 통해 HF Jobs에 제출합니다.- 작업 ID와 모니터링 URL을 보고합니다.
- 훈련된 모델을 Hub 저장소에 푸시합니다.
예시
(여기에 예시 사용법이나 출력 결과를 삽입하세요.)
훈련 스크립트
이 스킬은 skill 예제를 기반으로 다음과 같은 스크립트를 생성합니다.
# /// script
# dependencies = ["unsloth", "trl>=0.12.0", "datasets", "trackio"]
# ///
from unsloth import FastLanguageModel
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset
model, tokenizer = FastLanguageModel.from_pretrained(
"LiquidAI/LFM2.5-1.2B-Instruct",
load_in_4bit=True,
max_seq_length=2048,
)
model = FastLanguageModel.get_peft_model(
model,
r=16,
lora_alpha=32,
lora_dropout=0,
target_modules=[
"q_proj",
"k_proj",
"v_proj",
"out_proj",
"in_proj",
"w1",
"w2",
"w3",
],
)
dataset = load_dataset("trl-lib/Capybara", split="train")
trainer = SFTTrainer(
model=model,
tokenizer=tokenizer,
train_dataset=dataset,
args=SFTConfig(
output_dir="./output",
push_to_hub=True,
hub_model_id="username/my-model",
per_device_train_batch_size=4,
gradient_accumulation_steps=4,
num_train_epochs=1,
learning_rate=2e-4,
report_to="trackio",
),
)
trainer.train()
trainer.push_to_hub()
모델 크기 | 추천 GPU | 시간당 예상 비용
| 모델 크기 | 추천 GPU | 시간당 예상 비용 |
|---|---|---|
| < 1 B 파라미터 | t4-small | ~$0.40 |
| 1‑3 B 파라미터 | t4-medium | ~$0.60 |
| 3‑7 B 파라미터 | a10g-small | ~$1.00 |
| 7‑13 B 파라미터 | a10g-large | ~$3.00 |
Hugging Face Spaces 가격에 대한 전체 개요는 **여기**에서 확인하세요.
코딩 에이전트와 작업하기 위한 팁
- 사용할 모델과 데이터셋을 구체적으로 명시하고 Hub ID를 포함하세요 (예:
Qwen/Qwen2.5-0.5B및trl-lib/Capybara). 에이전트는 해당 조합을 검색하고 검증합니다. - Unsloth를 사용하고 싶다면 명시적으로 언급하세요; 그렇지 않으면 에이전트가 모델과 예산에 따라 프레임워크를 선택합니다.
- 대규모 작업을 시작하기 전에 비용 견적을 요청하세요.
- 실시간 손실 곡선을 위한 Trackio 모니터링을 요청하세요.
- 제출 후 로그를 검사하도록 에이전트에 요청해 작업 상태를 확인하세요.