Context Management – Mit dem richtigen Kontext bessere Antworten erhalten
Gutes Context Management entscheidet über die Qualität von KI-Antworten. Diese Lektion zeigt, wie du Systemprompts, Dokumentenübergabe und strukturierte Anweisungen gezielt einsetzt, um den Kontext in KI-Gesprächen optimal zu steuern.
📜 Kurze Wiederholung: Wie "erinnert" sich ein LLM?
❌
Falsch: "Die KI merkt sich, was ich gesagt habe"
Das Modell selbst speichert nichts zwischen den Anfragen
✅
Richtig: "Der gesamte Kontext wird jedes Mal mitgeschickt"
Bei jeder Anfrage bekommt das LLM alle relevanten Informationen erneut
📝
Kontext
(alle Infos)
+
❓
Frage
(aktuelle Anfrage)
→
🧠
LLM
(verarbeitet)
→
💬
Antwort
(basiert auf Kontext)
💡
Die entscheidende Erkenntnis
Die Qualität der Antwort hängt direkt von der Qualität des Kontexts ab.
Context Management ist die Kunst, dem LLM genau die richtigen Informationen mitzugeben – nicht zu wenig (dann fehlt Wissen), nicht zu viel (dann geht Relevantes unter).
🎯 Die Context Management Formel
Richtiger Kontext
+
Klare Frage
=
Relevante Antwort
Garbage In → Garbage Out • Gold In → Gold Out
🧱 Die 5 Bausteine des Kontexts – klicke für Details
💬
Chat-Verlauf
Alle bisherigen Nachrichten in der aktuellen Konversation...
Automatisch~500-5.000
⚙️
System-Prompt
Versteckte Anweisungen, die Rolle und Verhalten definieren...
Manuell~200-2.000
📎
Angehängte Dokumente
PDFs, Texte, Tabellen die hochgeladen oder eingefügt werden...
Manuell~1.000-50.000
🔍
Wissenssuche
Das System durchsucht automatisch Dokumente und Datenbanken ...
Automatisch~500-10.000
📝
Few-Shot Beispiele
Konkrete Beispiele für gewünschte Input-Output-Paare...
Manuell~200-2.000
📦 So stapelt sich der Kontext
💬Chat-Verlauf
~500-5.000
⚙️System-Prompt
~200-2.000
📎Angehängte Dokumente
~1.000-50.000
🔍Wissenssuche
~500-10.000
📝Few-Shot Beispiele
~200-2.000
↑ Alles zusammen = Das, was das LLM bei jeder Anfrage "sieht"
🪟 Das Context Window – Dein begrenzter Arbeitsbereich
0 TokensContext Window (z.B. 128k Tokens)128.000
⚙️ System
🔍 Wissen
📎 Dok
💬 Chat
Frei für Antwort
System-Prompt
Wissenssuche
Dokumente
Chat-Verlauf
⚠️
Das Window ist begrenzt!
Wenn zu viel Kontext reingepackt wird, geht entweder Wichtiges verloren (ältere Nachrichten werden abgeschnitten) oder das LLM verliert den Fokus ("Lost in the Middle"-Problem).
✅ Best Practices für Context Management
🎯
Relevanz vor Masse
Nur Infos mitgeben, die für diese Anfrage wichtig sind
✂️
Chunking
Große Dokumente in sinnvolle Abschnitte teilen
📍
Wichtiges nach vorne
Kritische Infos am Anfang des Kontexts platzieren
🔄
Regelmäßig aufräumen
Bei langen Chats: Neuen Thread starten
📊
Token-Budget planen
Reserve für die Antwort einkalkulieren
🧹
Redundanz vermeiden
Keine doppelten Informationen einbauen
🔬 Vorher / Nachher – Der Unterschied in der Praxis
Dieselbe Frage – mit und ohne gutes Context Management
👤
NUTZER-ANFRAGE
"Mein VPN funktioniert nicht mehr seit heute morgen"
📦 WAS DAS LLM SIEHT (Kontext)
💬 Chat-Verlauf
User: Mein VPN funktioniert nicht mehr seit heute morgen
💬 ANTWORT DER KI
Um Ihnen bei Ihrem VPN-Problem zu helfen, benötige ich mehr Informationen:
1. Welchen VPN-Client nutzen Sie?
2. Welches Betriebssystem?
3. Gibt es eine Fehlermeldung?
4. Haben Sie kürzlich Updates installiert?
Bitte teilen Sie mir diese Details mit.
❌ Problem: Generische Rückfragen, keine firmenspezifische Hilfe, man muss viel erklären
🎯
Das Fazit
Context Management macht den Unterschied zwischen einer generischen KI und einem Assistenten, der wirklich hilft. Der Aufwand lohnt sich: Einmal gut eingerichtet, profitiert jede einzelne Anfrage davon.
Schulungsmaterial · Context Management·KI-Wissen Team·Aktualisiert: 22. Februar 2026