KI-Wissen Logo
Start/🧠 KI-Grundlagen/Wie funktioniert ein LLM?
Grundlagen · KI verstehen

Wie funktioniert ein LLM? Einfach erklärt

Wie funktioniert ein Sprachmodell? Von der Wortvorhersage auf dem Handy zu ChatGPT – einfach erklärt

Ein Large Language Model (LLM) wie GPT oder Claude erzeugt Text, indem es Wort für Wort das wahrscheinlichste nächste Token vorhersagt. Diese Lektion erklärt den Weg vom Tokenizer über die Transformer-Architektur bis zur fertigen Antwort – verständlich und ohne Fachjargon.

📖 Wichtige Begriffe – kurz erklärt
LLM (Large Language Model)
Ein "Großes Sprachmodell" – die Technologie hinter ChatGPT, Claude & Co.
Token
Die Bausteine, in denen das Modell "denkt" – meist Wörter oder Wortteile.
Prompt
Deine Eingabe bzw. Frage an das Sprachmodell.
📱

Kennst du das von deinem Handy?

Wenn du eine Nachricht tippst, schlägt dein Handy das nächste Wort vor:"Ich bin gleich..."da? fertig? zuhause?

ChatGPT und Claude funktionieren im Kern genauso – nur millionenfach leistungsfähiger. Sie sagen immer nur das nächste Wort vorher, und dann das nächste, und das nächste...

Das Grundprinzip: Wort für Wort vorhersagen

Ein Sprachmodell generiert Text, indem es immer nur das nächste wahrscheinlichste Wort berechnet

PROMPT
"Warum ist der Himmel blau?"
🧠
Sprachmodell
"Welches Wort
passt am besten?"
RESPONSE
"Die blaue Färbung des Himmels..."

🔄 So läuft es Schritt für Schritt

1
📥
Deine Frage lesen
Das Modell nimmt deinen Text entgegen
2
🔍
Bisheriges betrachten
Was wurde schon geschrieben?
3
📊
Optionen abwägen
Welche Wörter könnten als nächstes kommen?
4
🎯
Bestes Wort wählen
Das wahrscheinlichste Wort wird ausgegeben
5
🔁
Wiederholen
Bis die Antwort vollständig ist
💡

Warum ist das wichtig zu wissen?

Das Sprachmodell "plant" seine Antwort nicht im Voraus. Es fragt sich nur immer wieder: "Welches Wort passt jetzt am besten?" – hunderte Male hintereinander. Deshalb können manchmal inhaltlich falsche, aber sprachlich "passende" Aussagen entstehen (sogenannte Halluzinationen).

▶️ Sieh dem Sprachmodell beim "Denken" zu

Beobachte, wie Wort für Wort die Antwort entsteht

Deine Frage + bisherige Wörter
WarumistderHimmelblau?
🧠
Sprachmodell
Mögliche nächste Wörter:
Die82%
Der9%
Das5%
Weil3%
Es1%
Generierte Antwort

Klicke "Animation starten" um zu beginnen...

Generierungsfortschritt0 / 5 Wörter generiert
🧩

Tokens = Die Puzzleteile der Sprache

Stell dir vor, du zerlegst einen Satz in einzelne Bausteine. Das Sprachmodell arbeitet nicht mit ganzen Sätzen, sondern mit diesen kleinen Einheiten – den Tokens. Meist ist ein Token ein Wort, manchmal aber auch nur ein Wortteil.

So sieht das in der Praxis aus

Häufige, kurze Wörter wie "der", "und", "ist" sind meist ein Token. Längere oder seltenere Wörter werden in mehrere Tokens aufgeteilt:

Beispiel: "Halluzination"
Halluzination

→ 3 Tokens für ein Wort

Beispiel: "the cat"
the cat

→ 2 Tokens (häufige Wörter = 1 Token)

💰

Kosten

API-Preise werden pro Token berechnet

📏

Kontextlänge

Max. Tokens begrenzen die Gesprächslänge

🌍

Sprachunterschiede

Deutsch braucht mehr Tokens als Englisch

🤓 Fun Fact

GPT-4 und Claude nutzen jeweils ~100.000 verschiedene Tokens in ihrem "Vokabular". Das ist wie ein riesiges Puzzle, aus dem jede Antwort Stück für Stück zusammengesetzt wird.

🎓

Wie ein Student: Erst lernen, dann anwenden

Ein Sprachmodell durchläuft zwei Phasen: Zuerst wird es mit riesigen Textmengen trainiert (wie ein Student, der für eine Prüfung lernt). Danach wird es genutzt – es wendet sein Wissen an, lernt aber nichts Neues dazu.

Die zwei Phasen im Detail

Das Training passiert einmalig beim Hersteller – die Nutzung passiert bei dir

TRAINING (beim Hersteller)

🏋️ Lernphase: Wissen aufbauen

📚Milliarden von Texten werden "gelesen"
🧠Das Modell lernt Muster und Zusammenhänge
🏭Dauert Wochen bis Monate
💵Kostet Millionen von Dollar
📅Passiert einmalig vor der Veröffentlichung
NUTZUNG (bei dir)

💬 Prüfung: Wissen anwenden

✍️Du stellst eine Frage
🧠Modell wendet sein Wissen an
🔒Es lernt dabei NICHTS Neues
Antwort kommt in Sekunden
🔄Passiert bei jeder Anfrage
⚠️

Wichtig: Das Modell lernt NICHT aus deinen Gesprächen!

Wenn du mit ChatGPT oder Claude chattest, verändert sich das Modell nicht. Es "merkt" sich nichts dauerhaft. Dein Gespräch wird separat gespeichert und eventuell später für das Training einer zukünftigen Version verwendet (je nach Anbieter und Einstellungen).

Ihr Chat
Separat gespeichert
Kuratiert & geprüft
Nächste Version
(Monate später)

💡 Das solltest du wissen

📜

Wie "erinnert" es sich dann?

Das Modell schickt bei jeder Antwort den gesamten Chatverlauf mit. So wirkt es, als hätte es ein Gedächtnis.

🔄

Neuer Chat = Neustart

Startest du einen neuen Chat, weiß das Modell nichts mehr von vorherigen Gesprächen.

🔒

Datenschutz beachten

Je nach Anbieter und Einstellung können deine Eingaben für zukünftiges Training verwendet werden.

Schulungsmaterial · Wie funktioniert ein LLM?·KI-Wissen Team·Aktualisiert: 22. Februar 2026
Zurück
Geschichte der KI
Weiter
KI-Modelltypen