Vector Embeddings
Numerische Repräsentationen von Text für semantische Ähnlichkeitsberechnung.
Definition
Vector Embeddings sind numerische Repräsentationen von Text (Wörtern, Sätzen, Dokumenten) als hochdimensionale Vektoren (typischerweise 300-1536 Dimensionen). Diese Vektoren ermöglichen es, semantische Ähnlichkeit mathematisch zu berechnen – ähnliche Konzepte liegen im Vektorraum nah beieinander.
Warum das wichtig ist
Vector Embeddings sind die Grundlage moderner LLMs (GPT, BERT) und ermöglichen: Semantic Search (Suche nach Bedeutung, nicht Keywords), Clustering (automatische Gruppierung ähnlicher Texte), Recommendation Systems, Persona-Segmentation (Identifikation von Nutzergruppen basierend auf Sprachmustern).
Vidasus-Kontext
Praxis-Beispiel
Ein SaaS-Unternehmen hatte 50.000 Support-Tickets. Vector Embeddings identifizierten automatisch 7 Haupt-Themen-Cluster, die 80% aller Anfragen abdeckten – Basis für gezieltes FAQ-Update.
Technische Details
Modelle wie Word2Vec, GloVe, BERT oder OpenAI's text-embedding-3 transformieren Text in Vektoren. "König" - "Mann" + "Frau" = "Königin" ist ein klassisches Beispiel für semantische Arithmetik in Vektorräumen.