免费使用 Unsloth 和 Hugging Face Jobs 训练 AI 模型
Source: Hugging Face Blog
概述
这篇博客文章介绍如何使用 Unsloth 和 Hugging Face Jobs 进行快速的 LLM 微调(具体为 LiquidAI/LFM2.5-1.2B-Instruct),通过 Claude Code 和 Codex 等编码代理。Unsloth 提供约 2× 更快的训练速度和约 60 % 更少的显存占用,与标准方法相比,训练小模型的成本仅需几美元。
为什么使用小模型?
小语言模型如 LFM2.5-1.2B‑Instruct 是微调的理想候选者:
- 训练成本低,迭代速度快。
- 在特定任务上与更大的模型竞争。
- 内存占用低于 1 GB,且针对设备端部署(CPU、手机、笔记本)进行优化。

您需要
我们正在免费赠送在 Hugging Face Jobs 上微调模型的积分。加入 Unsloth Jobs Explorers 组织以领取免费积分和一个月的 Pro 订阅。
- 一个 Hugging Face 账户(HF Jobs 必需)。
- 账单设置(用于验证;您可以在账单页面监控使用情况并管理账单)。
- 一个具有 write 权限的 Hugging Face token。
- (可选) 一个编码代理(
Open Code、Claude Code或Codex)。
运行作业
如果您想使用 HF Jobs 和 Unsloth 训练模型,只需使用 hf jobs CLI 提交作业即可。
-
安装
hfCLI# macOS 或 Linux curl -LsSf https://hf.co/cli/install.sh | bash -
提交作业
hf jobs uv run https://huggingface.co/datasets/unsloth/jobs/resolve/main/sft-lfm2.5.py \ --flavor a10g-small \ --secrets HF_TOKEN \ --timeout 4h \ --dataset mlabonne/FineTome-100k \ --num-epochs 1 \ --eval-split 0.2 \ --output-repo your-username/lfm-finetuned有关更多细节,请参阅训练脚本和Hugging Face Jobs 文档。
安装技能
Hugging Face 模型训练技能 通过让你仅通过提示即可训练模型,降低了入门门槛。首先,使用你的编码代理安装该技能。
Claude Code
Claude Code 通过其 插件系统 发现技能。要安装 Hugging Face 技能:
/plugin marketplace add huggingface/skills # add the marketplace
/plugin # browse available skills
/plugin install hugging-face-model-trainer@huggingface-skills
更多细节,请参阅 Hub‑with‑Skills 文档 或 Claude Code 的 技能文档。
Codex
Codex 通过 AGENTS.md 文件和 .agents/skills/ 目录发现技能。使用 $skill-installer 安装该技能:
$skill-installer install https://github.com/huggingface/skills/tree/main/skills/hugging-face-model-trainer
有关更多信息,请参考 Codex 技能文档 和 AGENTS.md 指南。
通用方法
克隆技能仓库并将所需技能复制到你的代理的技能目录中:
git clone https://github.com/huggingface/skills.git
mkdir -p ~/.agents/skills && cp -R skills/skills/hugging-face-model-trainer ~/.agents/skills/
Source:
快速开始
一旦安装了该技能,向你的编码代理请求训练模型:
Train LiquidAI/LFM2.5-1.2B-Instruct on mlabonne/FineTome-100k using Unsloth on HF Jobs
代理将会:
- 根据技能中的示例生成训练脚本。
- 将作业提交到 HF Jobs。
- 通过 Trackio 提供监控链接。
- 将训练好的模型推送到你的 Hugging Face Hub 仓库。
工作原理
Training jobs run on Hugging Face Jobs, a fully managed cloud‑GPU service. The agent:
- Generates a UV script with inline dependencies.
- Submits it to HF Jobs via the
hfCLI. - Reports the job ID and monitoring URL.
- Pushes the trained model to your Hub repository.
示例
(在此插入您的示例用法或输出。)
训练脚本
该技能基于skill中的示例生成类似的脚本。
# /// script
# dependencies = ["unsloth", "trl>=0.12.0", "datasets", "trackio"]
# ///
from unsloth import FastLanguageModel
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset
model, tokenizer = FastLanguageModel.from_pretrained(
"LiquidAI/LFM2.5-1.2B-Instruct",
load_in_4bit=True,
max_seq_length=2048,
)
model = FastLanguageModel.get_peft_model(
model,
r=16,
lora_alpha=32,
lora_dropout=0,
target_modules=[
"q_proj",
"k_proj",
"v_proj",
"out_proj",
"in_proj",
"w1",
"w2",
"w3",
],
)
dataset = load_dataset("trl-lib/Capybara", split="train")
trainer = SFTTrainer(
model=model,
tokenizer=tokenizer,
train_dataset=dataset,
args=SFTConfig(
output_dir="./output",
push_to_hub=True,
hub_model_id="username/my-model",
per_device_train_batch_size=4,
gradient_accumulation_steps=4,
num_train_epochs=1,
learning_rate=2e-4,
report_to="trackio",
),
)
trainer.train()
trainer.push_to_hub()
模型规模 | 推荐 GPU | 大约费用/小时
| 模型规模 | 推荐 GPU | 大约费用/小时 |
|---|---|---|
| < 1 B 参数 | t4-small | ~$0.40 |
| 1‑3 B 参数 | t4-medium | ~$0.60 |
| 3‑7 B 参数 | a10g-small | ~$1.00 |
| 7‑13 B 参数 | a10g-large | ~$3.00 |
要全面了解 Hugging Face Spaces 的定价,请查看指南 here。
使用编码代理的技巧
- 对要使用的模型和数据集要具体,并包含 Hub ID(例如
Qwen/Qwen2.5-0.5B和trl-lib/Capybara)。代理会搜索并验证这些组合。 - 如果希望使用 Unsloth,请明确提及;否则,代理会根据模型和预算选择框架。
- 在启动大型任务之前,先请求成本估算。
- 请求 Trackio 监控以获取实时损失曲线。
- 通过让代理在提交后检查日志来查看作业状态。