
Als je serieus wilt experimenteren met fine-tuning zonder direct hoge kosten, is dit een praktische route. Ik leg stap voor stap uit hoe je Unsloth samen met Hugging Face Jobs gebruikt — inclusief gratis credits, voorbeelden en voldoende waarschuwingen zodat je niet voor verrassingen komt te staan.
Waarom een klein model kiezen
Kleine modellen zoals LiquidAI/LFM2.5-1.2B-Instruct hebben echte voordelen voor ondernemers en marketingteams: ze zijn goedkoop om te trainen, snel om te itereren en relevant voor taakgerichte toepassingen. LFM2.5-1.2B-Instruct draait met weinig geheugen (onder 1 GB) en is geschikt voor deployment op CPU’s, telefoons en laptops. Dat betekent: minder kosten, minder infrastructuur en sneller resultaat voor specifieke taken zoals klant‑support, content‑parafrasering of marketingcopy.
Wat je nodig hebt
Je krijgt nu de kans op gratis credits via de Unsloth Jobs Explorers-organisatie. Praktisch gezien heb je het volgende nodig: een Hugging Face-account (vereist voor HF Jobs), een werkende billing‑setup voor verificatie en monitoring, een HF token met write‑rechten en — optioneel maar handig — een coding agent zoals Claude Code, Codex of Open Code. Zorg dat je tokens en keys veilig beheert en alleen voor de job deelt wanneer dat nodig is.
Gratis credits en hoe die te claimen
Meld je aan bij de Unsloth Jobs Explorers-organisatie om je gratis credits en een proefmaand Pro te claimen. Dat geeft je genoeg ruimte om een of twee kleine fine-tuning runs te doen en te leren. Controleer direct na claimen je HF billingpagina zodat je onverwachte kosten kunt zien en limieten kunt instellen.
De job uitvoeren: hf CLI installeren en submitten
De eenvoudigste route om een job te starten is via de hf CLI. Installeer die eerst op macOS of Linux met:
curl -LsSf https://huggingface.co/install.sh | bash
Daarna kun je een Unsloth-job op HF Jobs indienen, bijvoorbeeld:
hf jobs uv run \
--flavor a10g-small \
--secrets HF_TOKEN \
--timeout 4h \
--dataset mlabonne/FineTome-100k \
--num-epochs 1 \
--eval-split 0.2 \
--output-repo your-username/lfm-finetuned
Pas de parameters aan naar dataset, aantal epochs en je Hub‑repository. Vraag de agent altijd om een kosteninschatting voordat je grotere resources vraagt.
Skills installeren: Claude Code
Als je met Claude Code werkt, installeer je de Hugging Face skills via de marketplace. De stappen zijn kort: voeg de marketplace toe, blader naar de Discover-tab en installeer de hugging-face-model-trainer. Concrete commando’s binnen Claude Code: plugin marketplace add huggingface/skills en daarna /plugin install hugging-face-model-trainer@huggingface-skills. De agent gebruikt die skill om scripts te genereren en jobs te submitten.
Skills installeren: Codex en algemene methode
Codex gebruikt AGENTS.md en .agents/skills/ directories. Installeer losse skills met $skill-installer, bijvoorbeeld:
$skill-installer install hugging-face-model-trainer
Als dat niet beschikbaar is kun je de skills-repo clonen en de skill handmatig kopiëren naar je agent directory:
git clone -p ~/.agents/skills && cp -R skills/skills/hugging-face-model-trainer ~/.agents/skills/
Gebruik deze generieke methode als je agent geen marketplace heeft.
Quick start met een coding agent
Zodra de skill geïnstalleerd is kun je simpelweg vragen: “Train LiquidAI/LFM2.5-1.2B-Instruct op mlabonne/FineTome-100k met Unsloth op HF Jobs.” De agent genereert een trainingsscript, submit de job via hf CLI en geeft een monitoringlink (Trackio) terug. Blijf bij de eerste runs betrokken: check logs, bevestig hyperparameters en let op kosten.
Hoe het werkt achter de schermen
De agent genereert een UV‑script met de benodigde dependencies en inline code, submit het naar Hugging Face Jobs via de CLI, rapporteert job‑ID en een Trackio‑url en duwt het getrainde model naar je Hub‑repo. HF Jobs draait de training op beheerde cloud‑GPU’s. Unsloth zorgt voor snellere training en lager VRAM‑gebruik, waardoor kleine modellen relatief goedkoop te finetunen zijn.
Voorbeeld trainingsscript
Een typisch script dat de skill genereert ziet er ongeveer zo uit:
/// script
dependencies =
from unsloth import FastLanguageModel
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset
model, tokenizer = FastLanguageModel.from_pretrained(
"LiquidAI/LFM2.5-1.2B-Instruct",
loadin4bit=True,
maxseqlength=2048,
)
model = FastLanguageModel.getpeftmodel(
model, r=16, lora_alpha=32, lora_dropout=0, target_modules=[],
)
dataset = load_dataset("trl-lib/Capybara", split="train")
trainer = SFTTrainer(
model=model,
tokenizer=tokenizer,
train_dataset=dataset,
args=SFTConfig(
output_dir="./output",
pushtohub=True,
hubmodelid="username/my-model",
perdevice_train_batchsize=4,
gradientaccumulationsteps=4,
numtrainepochs=1,
learning_rate=2e-4,
report_to="trackio",
),
)
trainer.train()
trainer.pushtohub()
Gebruik dit als basis en pas dataset, hubmodelid en hyperparameters aan voor jouw taak.
Aanbevolen GPU’s en richtprijzen
Dit zijn vuistregels voor kleine modellen en hun geschatte kosten per uur (controleer altijd HF‑pricing):
- <1B parameters: t4-small — ~€0,35 per uur
- 1–3B parameters: t4-medium — ~€0,50 per uur
- 3–7B parameters: a10g-small — ~€0,85 per uur
- 7–13B parameters: a10g-large — ~€2,50 per uur
Voor experimenten met LFM2.5-1.2B heb je vaak genoeg aan een t4‑variant. Houd rekening met extra kosten voor storage en uitgaande data.
Tips voor werken met coding agents
Wees specifiek in je prompt: noem exact model‑ en dataset‑Hub‑IDs (bijvoorbeeld LiquidAI/LFM2.5-1.2B-Instruct en trl-lib/Capybara). Zeg expliciet dat Unsloth gebruikt moet worden als je dat wilt, anders kiest de agent zelf een framework. Vraag vooraf om een kostenraming en vraag om Trackio monitoring zodat je realtime loss curves ziet. Controleer na submitten regelmatig de logs en vraag de agent om samenvattingen van fouten of waarschuwingen.
Praktische waarschuwingen
Gratis credits zijn handig om te leren, maar blijven beperkte sandboxen. Test eerst met kleine datasets en korte runs. Beheer tokens en toegang zorgvuldig en zet limieten in je HF billing. Verwacht niet dat een uitgefine‑tuned model meteen perfecte resultaten geeft — iteratie en kwalitatieve evaluatie blijven nodig voordat je het in productie zet.
Handige bronnen
Links en documentatie die nuttig zijn: Hugging Face Skills repository, Unsloth tutorial on Hugging Face Jobs, voorbeeld Unsloth Jobs scripts en de HF Jobs CLI‑documentatie. Claim de Unsloth Jobs Explorers credits als je wilt oefenen zonder meteen veel uit te geven.
Afronding en advies
Begin klein, behoud controle over kosten en blijf betrokken tijdens de eerste trainingen. Fine‑tuning met Unsloth en HF Jobs is een praktische manier om eigen taalmodellen te bouwen zonder grote investeringen. Als je wilt, help ik je bij het opzetten van de eerste run en het beoordelen van resultaten — liefst samen, zodat je voorkomt dat je onnodig tijd of geld verliest.