Few-Shot Learning
LLM-Technik: Lernen aus wenigen Beispielen im Prompt.
Definition
Few-Shot Learning ist eine Technik, bei der einem Large Language Model im Prompt wenige Beispiele (typischerweise 2-5) des gewünschten Outputs gegeben werden, sodass es das Muster inferiert und auf neue Inputs anwendet – ohne dass das Modell neu trainiert werden muss. Im Gegensatz zu Zero-Shot (keine Beispiele) oder Fine-Tuning (explizites Training).
Warum das wichtig ist
Few-Shot Learning ermöglicht präzise, konsistente Outputs ohne teures Fine-Tuning. Besonders wertvoll für: Klassifikation (E-Mails, Rezensionen), Formatierung (strukturierte Outputs), Tonalität (Markenstimme) und Domain-spezifische Tasks (Fach-Terminologie). Few-Shot ist oft der Unterschied zwischen 60% und 95% Accuracy.
Vidasus-Kontext
Praxis-Beispiel
Ein Marketing-Team wollte 5.000 Keywords kategorisieren. Zero-Shot (ohne Beispiele): 65% Accuracy, inkonsistent. Few-Shot (5 Beispiele pro Kategorie): 94% Accuracy, konsistent. Zeitaufwand: 30 Minuten Beispiele erstellen vs. 20 Stunden manuelle Arbeit.
Technische Details
Pattern: "Klassifiziere X in Kategorie Y. Beispiel 1: Input A → Kategorie B. Beispiel 2: Input C → Kategorie D. Nun klassifiziere: Input E". LLM inferiert Muster aus Beispielen. Optimal: 3-5 diverse Beispiele (Edge Cases abdecken), klare Format-Konsistenz.
Die Säulen
- Zero-Shot – Keine Beispiele (funktioniert bei einfachen Tasks)
- One-Shot – 1 Beispiel (für sehr einfache Pattern)
- Few-Shot – 2-5 Beispiele (Standard, bestes Cost-Benefit)
- Many-Shot – 10+ Beispiele (für komplexe Tasks)
- Fine-Tuning – Explizites Training (teuer, für Production-Scale)