Zum Hauptinhalt springen
Glossar-Begriff

Prompt Engineering

Verfassen und Optimieren von Anweisungen für Large Language Models.

Definition

Prompt Engineering ist die Disziplin des Verfassens, Optimierens und Strukturierens von Eingabe-Anweisungen (Prompts) für Large Language Models, um qualitativ hochwertige, präzise und konsistente Outputs zu erzielen. Gutes Prompt Engineering kombiniert klare Anweisungen, Kontext, Beispiele (Few-Shot Learning), Formatierungs-Vorgaben und Constraint-Definition.

Warum das wichtig ist

LLMs sind mächtig, aber "garbage in, garbage out" gilt mehr denn je. Ein vager Prompt ("Schreib was über SEO") liefert generische Outputs. Ein präziser Prompt ("Schreib einen 300-Wort-Absatz über Technical SEO für E-Commerce, fokussiert auf Page Speed, Zielgruppe: Shop-Betreiber ohne Tech-Background") liefert exakt das gewünschte Ergebnis.

Vidasus-Kontext

Prompt Engineering ist Kern-Tool in allen Services: In Marketing Intelligence nutzen wir strukturierte Prompts für Entity Extraction aus Konkurrenz-Content. In E-Commerce Intelligence für Aspect-Based Sentiment Analysis. In Semantische Persona-Intelligence für Wording-Cluster-Labeling.

Praxis-Beispiel

Ein Marketing-Team wollte 500 Blog-Artikel kategorisieren. Schlechter Prompt lieferte inkonsistente Ergebnisse (mal "SEO", mal "Search Engine Optimization"). Optimierter Prompt mit klaren Kategorien, Constraint "Wähle GENAU EINE Kategorie" und Few-Shot-Beispielen: Konsistenz stieg von 60% auf 95%, Zeitersparnis: 18 Stunden.

Die Säulen

  • Clarity: Spezifische Anweisungen, keine vagen Formulierungen
  • Context: Notwendigen Hintergrund und Rolle definieren
  • Constraints: Format, Länge, Stil, Struktur explizit vorgeben
  • Examples: Few-Shot Learning: Zeige, wie Output aussehen soll
  • Iteration: Prompts testen und sukzessive verfeinern