Zum Hauptinhalt springen
Glossar-Begriff

RAG (Retrieval-Augmented Generation)

Hybrid-Technik: LLMs kombiniert mit externen Wissensquellen.

Definition

Retrieval-Augmented Generation (RAG) ist eine Hybrid-Technik, die Large Language Models (LLMs) mit externen Wissensquellen kombiniert. Statt ausschließlich auf trainierte Daten zu vertrauen, ruft ein RAG-System bei jeder Query relevante Dokumente aus einer Wissensdatenbank (typischerweise Vector Database) ab und nutzt diese als Kontext für die Antwort-Generierung.

Warum das wichtig ist

Standard-LLMs haben fundamentale Limitationen: Knowledge Cutoff (GPT-4 kennt keine Events nach Sept 2023), Hallucinations (erfinden Fakten), No Source Attribution (keine Quellenangaben). RAG löst alle 3 Probleme: Aktuelle Daten (via Retrieval), faktenbasiert (via externe Docs), transparent (via Citations).

Vidasus-Kontext

RAG ist die technologische Basis für moderne GEO-Optimierung. LLMs wie ChatGPT nutzen RAG-ähnliche Systeme – deine Website-Inhalte können in deren Retrieval-Index landen. Retrieval-Optimierung = Neue SEO-Disziplin: Klar strukturierte Inhalte (LLMs können sie besser parsen), hohe Semantic Density, Chunk-Friendly Format (100-200 Wörter Absätze optimal).

Praxis-Beispiel

Rechtsanwalts-Kanzlei hatte 10.000 Gerichtsentscheidungen (PDFs). Problem: Anwälte brauchen Stunden für Recherche. Lösung: Alle PDFs → Text-Extraktion → Embeddings → Weaviate → RAG-Interface. GPT-4 synthetisiert Zusammenfassungen mit Paragraphen-Zitaten. Zeitersparnis: 4 Stunden → 5 Minuten pro Recherche.

Die Säulen

  • Simple RAG – Query → Retrieval → Generation (1 Iteration)
  • Iterative RAG – Bei Unsicherheit: erneutes Retrieval
  • Agentic RAG – LLM entscheidet selbst, WANN retrieved wird

Level-System

1
Indexierung (Offline) – Dokumente → Embeddings → Vector Database
2
Query Processing – User-Query → Embedding
3
Retrieval – Vector DB findet Top-K ähnlichste Dokumente
4
Generation – LLM erhält Query + Docs als Kontext → Antwort