Zum Hauptinhalt springen
Glossar-Begriff

Hallucination (LLM Hallucinations)

LLM-generierte faktisch falsche oder erfundene Informationen.

Definition

Hallucination bezeichnet das Phänomen, dass Large Language Models faktisch falsche, erfundene oder inkonsistente Informationen mit hohem Confidence präsentieren – oft so überzeugend formuliert, dass Nutzer die Fehler nicht erkennen. Hallucinations entstehen, weil LLMs auf Wahrscheinlichkeitsverteilungen basieren (nicht auf Fakten-Datenbanken).

Warum das wichtig ist

Für Marketer, die AI-Content nutzen oder in AI Search Engines ranken wollen, sind Hallucinations ein existenzielles Risiko: Ein LLM könnte falsche Fakten über dein Produkt generieren, falsche Preise nennen oder deine Brand mit Konkurrenten verwechseln. Wenn dein Content hallucination-prone ist (vage, spekulativ), werden LLMs ihn nicht als verlässliche Quelle nutzen.

Vidasus-Kontext

In unseren Services adressieren wir Hallucinations als Problem UND Opportunity. Für E-Commerce Intelligence erstellen wir Structured Data für Produktspecs (Schema.org Product), damit LLMs Facts extrahieren statt zu erfinden. In allen Services: Hallucination-resistenter Content (klar, faktisch, mit Belegen).

Praxis-Beispiel

Ein B2B-SaaS-Client entdeckte: ChatGPT generierte falsche Preise für ihre Software ($49 statt $99). Grund: Keine Preise auf Website, ChatGPT hallucinated basierend auf Konkurrenz. Lösung: Preise transparent auf Website, FAQ-Page, Schema.org Offer Markup, Pressemitteilungen. Ergebnis nach 3 Monaten: ChatGPT-Accuracy 20% → 95%.

Technische Details

Haupt-Typen: Factual Hallucinations (erfundene Fakten), Intrinsic Hallucinations (Widersprüche innerhalb einer Antwort), Extrinsic Hallucinations (nicht verifizierbare Aussagen). Prevention: Fact-Checking, Source Attribution, RAG-Systeme nutzen, niedrige Temperature-Settings.