Unsloth와 Hugging Face Jobs로 AI 모델을 무료로 훈련하기
Source: Hugging Face Blog
기사 목록으로 돌아가기
개요
이 블로그 포스트에서는 **Unsloth**와 Hugging Face Jobs를 사용하여 Claude Code와 Codex와 같은 코딩 에이전트를 통해 빠른 LLM 파인‑튜닝(특히 LiquidAI/LFM2.5-1.2B-Instruct)을 수행하는 방법을 다룹니다.
- Unsloth는 표준 방법에 비해 학습 속도가 약 2배 빠르고 VRAM 사용량이 약 60 % 적게 소모되므로, 작은 모델을 훈련하는 비용이 몇 달러에 불과합니다.
왜 작은 모델을 사용할까?
LFM2.5‑1.2B‑Instruct와 같은 소형 언어 모델은 파인‑튜닝에 이상적입니다. 그 이유는 다음과 같습니다:
- 학습 비용이 저렴하고 반복 실험이 빠릅니다.
- 메모리 사용량이 1 GB 이하이며, CPU, 스마트폰, 노트북 등 디바이스에서의 배포에 최적화되어 있습니다.

필요 사항
우리는 Hugging Face Jobs에서 모델을 파인‑튜닝할 수 있는 무료 크레딧을 제공하고 있습니다. Unsloth Jobs Explorers 조직에 가입하여 무료 크레딧과 한 달간 Pro 구독을 받으세요.
- Hugging Face 계정 (HF Jobs에 필요합니다).
- 결제 설정 (인증을 위해; 결제 페이지에서 사용량을 모니터링할 수 있습니다).
- write 권한이 있는 Hugging Face 토큰.
- (선택 사항) 코딩 에이전트 (Open Code, Claude Code, 또는 Codex).
작업 실행
hf jobs CLI로 작업을 제출할 수 있습니다.
hf CLI 설치
# macOS or Linux
curl -LsSf https://hf.co/cli/install.sh | bash
작업 제출
hf jobs uv run https://huggingface.co/datasets/unsloth/jobs/resolve/main/sft-lfm2.5.py \
--flavor a10g-small \
--secrets HF_TOKEN \
--timeout 4h \
--dataset mlabonne/FineTome-100k \
--num-epochs 1 \
--eval-split 0.2 \
--output-repo your-username/lfm-finetuned
자세한 내용은 훈련 스크립트와 Hugging Face Jobs 문서를 참고하세요.
스킬 설치
Hugging Face 모델‑훈련 스킬은 프롬프트만으로 모델을 훈련할 수 있게 하여 진입 장벽을 낮춥니다. 코딩 에이전트와 함께 스킬을 설치하세요.
Claude Code
Claude Code는 플러그인 시스템을 통해 스킬을 발견합니다.
-
마켓플레이스 추가:
/plugin marketplace add huggingface/skills -
사용 가능한 스킬 탐색:
/plugin -
모델‑트레이너 스킬 설치:
/plugin install hugging-face-model-trainer@huggingface-skills
자세한 내용은 Hugging Face agents‑skills docs와 Claude Code Skills docs를 참고하세요.
Codex
Codex는 AGENTS.md 파일과 .agents/skills/ 디렉터리를 통해 스킬을 발견합니다.
$skill-installer install https://github.com/huggingface/skills/tree/main/skills/hugging-face-model-trainer
Codex Skills docs와 AGENTS.md guide를 확인하세요.
일반적인 방법
스킬 저장소를 클론하고 스킬을 에이전트의 스킬 디렉터리에 복사합니다:
git clone https://github.com/huggingface/skills.git
mkdir -p ~/.agents/skills && cp -R skills/skills/hugging-face-model-trainer ~/.agents/skills/
빠른 시작
스킬을 설치한 후, 코딩 에이전트에게 모델을 학습하도록 요청하세요:
Train LiquidAI/LFM2.5-1.2B-Instruct on mlabonne/FineTome-100k using Unsloth on HF Jobs
에이전트는 다음을 수행합니다:
- 학습 스크립트를 생성합니다 (스킬 저장소에 예시가 있습니다).
- 작업을 HF Jobs에 제출합니다.
- Trackio를 통해 모니터링 링크를 제공합니다.
작동 방식
훈련 작업은 완전 관리형 클라우드‑GPU 서비스인 **Hugging Face Jobs**에서 실행됩니다. 에이전트는:
- 인라인 종속성이 포함된 UV 스크립트를 생성합니다.
hfCLI를 통해 HF Jobs에 제출합니다.- 작업 ID와 모니터링 URL을 보고합니다.
- 훈련된 모델을 Hugging Face Hub 저장소에 푸시합니다.
예시
(원본 내용은 여기서 끝났습니다; 원하는 예제 코드나 출력을 삽입하세요.)
교육 스크립트
이 스킬은 skill 예제를 기반으로 다음과 같은 스크립트를 생성합니다.
# /// script
# dependencies = ["unsloth", "trl>=0.12.0", "datasets", "trackio"]
# ///
from unsloth import FastLanguageModel
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset
model, tokenizer = FastLanguageModel.from_pretrained(
"LiquidAI/LFM2.5-1.2B-Instruct",
load_in_4bit=True,
max_seq_length=2048,
)
model = FastLanguageModel.get_peft_model(
model,
r=16,
lora_alpha=32,
lora_dropout=0,
target_modules=[
"q_proj",
"k_proj",
"v_proj",
"out_proj",
"in_proj",
"w1",
"w2",
"w3",
],
)
dataset = load_dataset("trl-lib/Capybara", split="train")
trainer = SFTTrainer(
model=model,
tokenizer=tokenizer,
train_dataset=dataset,
args=SFTConfig(
output_dir="./output",
push_to_hub=True,
hub_model_id="username/my-model",
per_device_train_batch_size=4,
gradient_accumulation_steps=4,
num_train_epochs=1,
learning_rate=2e-4,
report_to="trackio",
),
)
trainer.train()
trainer.push_to_hub()
모델 크기 | 추천 GPU | 시간당 예상 비용
| 모델 크기 | 추천 GPU | 시간당 예상 비용 |
|---|---|---|
| < 1 B 파라미터 | t4-small | ~$0.40 |
| 1‑3 B 파라미터 | t4-medium | ~$0.60 |
| 3‑7 B 파라미터 | a10g-small | ~$1.00 |
| 7‑13 B 파라미터 | a10g-large | ~$3.00 |
Hugging Face Spaces 가격에 대한 전체 개요는 여기 가이드를 확인하세요.
코딩 에이전트와 작업하기 위한 팁
- 모델과 데이터셋을 구체적으로 지정하고 Hub ID(e.g.,
Qwen/Qwen2.5-0.5B및trl-lib/Capybara)를 포함하세요. 에이전트가 해당 조합을 검색하고 검증합니다. - 사용하고 싶다면 Unsloth를 명시적으로 언급하세요. 그렇지 않으면 에이전트가 모델과 예산에 따라 프레임워크를 선택합니다.
- 대규모 작업을 시작하기 전에 비용 견적을 요청하세요.
- 실시간 손실 곡선을 위해 Trackio 모니터링을 요청하세요.
- 제출 후 에이전트에게 로그를 검사하도록 요청해 작업 상태를 확인하세요.