Hallucination (LLM Hallucinations)
LLM-generierte faktisch falsche oder erfundene Informationen.
Definition
Hallucination bezeichnet das Phänomen, dass Large Language Models faktisch falsche, erfundene oder inkonsistente Informationen mit hohem Confidence präsentieren – oft so überzeugend formuliert, dass Nutzer die Fehler nicht erkennen. Hallucinations entstehen, weil LLMs auf Wahrscheinlichkeitsverteilungen basieren (nicht auf Fakten-Datenbanken).
Warum das wichtig ist
Für Marketer, die AI-Content nutzen oder in AI Search Engines ranken wollen, sind Hallucinations ein existenzielles Risiko: Ein LLM könnte falsche Fakten über dein Produkt generieren, falsche Preise nennen oder deine Brand mit Konkurrenten verwechseln. Wenn dein Content hallucination-prone ist (vage, spekulativ), werden LLMs ihn nicht als verlässliche Quelle nutzen.
Vidasus-Kontext
Praxis-Beispiel
Ein B2B-SaaS-Client entdeckte: ChatGPT generierte falsche Preise für ihre Software ($49 statt $99). Grund: Keine Preise auf Website, ChatGPT hallucinated basierend auf Konkurrenz. Lösung: Preise transparent auf Website, FAQ-Page, Schema.org Offer Markup, Pressemitteilungen. Ergebnis nach 3 Monaten: ChatGPT-Accuracy 20% → 95%.
Technische Details
Haupt-Typen: Factual Hallucinations (erfundene Fakten), Intrinsic Hallucinations (Widersprüche innerhalb einer Antwort), Extrinsic Hallucinations (nicht verifizierbare Aussagen). Prevention: Fact-Checking, Source Attribution, RAG-Systeme nutzen, niedrige Temperature-Settings.