KI-Wissen Logo
Start/🧠 KI-Grundlagen/Embeddings erklärt
Grundlagen · KI verstehen

Embeddings erklärt – Wie KI Bedeutung versteht

Was sind Embeddings? Wie KI die Bedeutung von Wörtern in Zahlen übersetzt

Embeddings wandeln Wörter und Sätze in Zahlenvektoren um und ermöglichen so semantische Suche und Ähnlichkeitsvergleiche. Diese Lektion zeigt, wie KI-Modelle dadurch Bedeutung verstehen – und warum Embeddings die Grundlage für RAG-Systeme und intelligente Suche sind.

🗺️

Analogie: GPS-Koordinaten für Bedeutung

Stell dir vor, jedes Wort hätte eine GPS-Position in einem riesigen Bedeutungsraum. Wörter mit ähnlicher Bedeutung liegen nah beieinander, völlig verschiedene weit auseinander.

"König" und "Königin" sind fast am gleichen Ort. "König" und "Banane" sind sehr weit voneinander entfernt.

Das Problem: Computer verstehen keine Wörter

Das Problem

Computer können nur mit Zahlen rechnen. Das Wort "Hund" ist für einen Computer nur eine Buchstabenfolge – er versteht nicht, dass es ein Tier mit vier Beinen ist.

Die Lösung: Embeddings

Wir wandeln Wörter in lange Zahlenreihen (Vektoren) um, die ihre Bedeutung kodieren. Ähnliche Wörter bekommen ähnliche Zahlen.

Die Transformation

WORT
Hund
🧠
Embedding
Modell
EMBEDDING (VEKTOR)
[0.23, -0.55, 0.72, 0.15, ...]
(768-3072 Zahlen)
📊
Zahlenreihe
Hunderte bis tausende Zahlen pro Wort
🎯
Bedeutung kodiert
Die Zahlen "fangen" die Bedeutung ein
🔗
Ähnlichkeit messbar
Ähnliche Bedeutung = ähnliche Vektoren
🚀
Rechenbar
Computer kann jetzt mit Bedeutung arbeiten

🔢 So sieht ein Embedding aus

"König"
0.82
-0.15
0.67
0.91
-0.33
0.45
0.12
-0.78
... +760 mehr

🔍 Vergleich: Wie ähnlich sind die Embeddings?

König ↔ Königin
100%
Ähnlichkeit
König ↔ Mann
98%
Ähnlichkeit
König ↔ Frau
98%
Ähnlichkeit
König ↔ Hund
-47%
Ähnlichkeit
König ↔ Katze
-44%
Ähnlichkeit

🎓 Das berühmte Beispiel

König - Mann + Frau ≈ Königin

Man kann mit Embeddings rechnen! Wenn man vom "König"-Vektor den "Mann"-Vektor abzieht und den "Frau"-Vektor addiert, landet man nahe bei "Königin".
Das zeigt: Die Bedeutung ist wirklich in den Zahlen kodiert!

🗺️ Der Bedeutungsraum

Klicke auf ein Wort, um seine Verbindungen zu sehen!

91%90%93%19%19%20%18%37%33%41%33%40%46%34%43%
König
Königin
Prinz
Krone
Hund
Katze
Maus
Pferd
Apfel
Banane
Pizza
Brot
Computer
Software
Internet
Programm
Verbindungen:
Sehr ähnlich (70%+)
Mittel (40-70%)
Unähnlich (<40%)
Kategorien:
Royalty
Tiere
Essen
Tech
König
Royalty/Adel
Ähnlichste Nachbarn
Krone
93%
Königin
91%
Prinz
90%
Entfernteste Wörter
Pferd
18%
Katze
19%
Hund
19%
💡 Warum diese Ähnlichkeiten?
"König" liegt nahe bei anderen Royalty/Adel-Wörtern, weil sie in Texten häufig in ähnlichen Kontexten vorkommen.
💡

Was wir hier sehen

In Wirklichkeit haben Embeddings 768-3072 Dimensionen – wir können das nicht visualisieren. Diese 2D-Darstellung ist eine stark vereinfachte Projektion. Aber das Prinzip bleibt: Semantisch ähnliche Wörter liegen im Vektorraum nahe beieinander. Die Verbindungslinien zeigen: Wörter der gleichen Kategorie (z.B. Tiere) haben hohe Ähnlichkeitswerte, während Wörter aus verschiedenen Kategorien weiter auseinander liegen.

🔍 Anwendung: Semantische Suche & RAG

So findet RAG die relevanten Dokumente für deine Frage

Wähle eine Frage:

🎯 Warum ist das so mächtig?

Klassische Suche: Findet nur exakte Wörter. "Urlaub" findet nicht "Ferien".
Semantische Suche: Versteht die Bedeutung. "Wie viele freie Tage habe ich?" findet trotzdem das Urlaubsdokument.

Das ist die Basis von RAG: Frage embedden → Ähnlichste Dokumente finden → Diese der KI als Kontext mitgeben → Präzise Antwort generieren.
Schulungsmaterial · Embeddings erklärt·KI-Wissen Team·Aktualisiert: 22. Februar 2026
Zurück
Kontext bei LLMs
Weiter
Superkräfte der KI