Wie "erinnert" sich ein Chatbot? Spoiler: Gar nicht! Das Modell bleibt immer gleich – der Trick liegt im Kontext.
Das Context Window bestimmt, wie viel Text ein Large Language Model gleichzeitig verarbeiten kann. Diese Lektion erklärt, warum LLMs kein echtes Gedächtnis haben, wie Token-Limits funktionieren und wie du den verfügbaren Kontext optimal nutzt – vertieft in der Lektion zu Context Management.
🧠❓
Was viele glauben...
Nachricht 1
"Ich bin Anna"
→
🧠
→
Speichert:
"Anna" 💾
Nachricht 2
"Wie heiße ich?"
→
🧠
erinnert sich?
→
"Du bist Anna!"
❌
Die KI lernt mich kennen
❌
Das Modell verändert sich
❌
Informationen werden gespeichert
❌
Die KI wird "schlauer"
✨🔍
Was wirklich passiert...
ANFRAGE 1
Kontext: "Ich bin Anna"
→
🧠
Statisches Modell
→
"Hallo Anna!"
ANFRAGE 2⭐ DER TRICK!
Gesamter Kontext:
User: "Ich bin Anna"
AI: "Hallo Anna!"
User: "Wie heiße ich?"
→
🧠
Gleiches Modell!
→
"Du bist Anna!"
💡
Das Geheimnis: Copy & Paste!
Bei jeder Nachricht wird der komplette Chatverlauf neu an das Modell geschickt. Das Modell "liest" alles von vorne – wie ein Mensch, der ein Gespräch nachliest.
✅
Das Modell bleibt unverändert
✅
Kontext wird jedes Mal mitgeschickt
✅
"Gedächtnis" = Chatverlauf lesen
✅
Jede Anfrage ist eigentlich neu
📜
Das Context Window
Der "Arbeitsspeicher" eines Chatbots
📋
Stell dir vor...
Du sprichst mit einer Fachperson, die nach jeder Antwort alles vergisst. Aber: Du hast ein Klemmbrett, auf dem du das gesamte Gespräch mitschreibst. Vor jeder neuen Frage gibst du ihr das Klemmbrett zum Nachlesen.
📏
Die Begrenzung
Das Klemmbrett hat eine maximale Größe! Bei sehr langen Gesprächen werden die ältesten Nachrichten abgeschnitten. Dann "vergisst" der Chatbot tatsächlich – weil die Info nicht mehr im Kontext ist.
🖼️ So sieht das Context Window aus
📜 Context Windowz.B. 128k Tokens
[System] Du bist ein hilfreicher Assistent...
[User] Hallo, ich bin Anna!
[Assistant] Hallo Anna! Wie kann ich helfen?
[User] Ich arbeite bei Adacor.
[Assistant] Interessant! Was machst du dort?
[User] Wie heiße ich und wo arbeite ich?
← Aktuelle Frage (NEU hinzugefügt)
⬆️ Das GESAMTE wird bei jeder Anfrage gesendet
🔄
Jede Anfrage = Komplett neu
Das Modell bekommt jedes Mal den vollen Verlauf
📏
Begrenzte Länge
Zu lange Gespräche werden am Anfang gekürzt
💾
Nichts wird gespeichert
Das Modell selbst ändert sich nie durch Nutzung
💰
Kosten pro Token
Längere Kontexte = mehr Rechenaufwand
💬 Chat-Oberfläche(was du siehst)
Hallo, ich bin Anna!
Hallo Anna! Freut mich, dich kennenzulernen. Wie kann ich dir helfen?
🔍 Was wirklich gesendet wird(hinter den Kulissen)
// Bei JEDER Nachricht wird gesendet:
{ "messages": [
{ "role": "user", "content": "Hallo, ich bin Anna!" },
{ "role": "assistant", "content": "Hallo Anna! Freut mich, dich kennenzulernen. Wie kann ich dir helfen?" } ← NEU
] }
⚠️ Der GESAMTE Verlauf wird jedes Mal neu gesendet! Das Modell hat kein eigenes Gedächtnis.
💡 Probiere es aus: Frag "Wie heiße ich?" – die KI "weiß" es nur, weil sie den Verlauf oben lesen kann!
🎓 Die Erkenntnis
Ein LLM ist wie eine sehr kluge, aber vergessliche Fachperson. Ihr "Gedächtnis" bist du – indem du ihr bei jeder Frage den ganzen Gesprächsverlauf zeigst.
Schulungsmaterial · Kontext bei LLMs·KI-Wissen Team·Aktualisiert: 22. Februar 2026