KI-Wissen Logo
Start/✍️ Prompt Engineering/Context Management
KI-Strategie · Deep Dive

Context Management für KI-Gespräche

Context Management – Mit dem richtigen Kontext bessere Antworten erhalten

Gutes Context Management entscheidet über die Qualität von KI-Antworten. Diese Lektion zeigt, wie du Systemprompts, Dokumentenübergabe und strukturierte Anweisungen gezielt einsetzt, um den Kontext in KI-Gesprächen optimal zu steuern.

📜 Kurze Wiederholung: Wie "erinnert" sich ein LLM?

Falsch: "Die KI merkt sich, was ich gesagt habe"
Das Modell selbst speichert nichts zwischen den Anfragen
Richtig: "Der gesamte Kontext wird jedes Mal mitgeschickt"
Bei jeder Anfrage bekommt das LLM alle relevanten Informationen erneut
📝
Kontext
(alle Infos)
+
Frage
(aktuelle Anfrage)
🧠
LLM
(verarbeitet)
💬
Antwort
(basiert auf Kontext)
💡

Die entscheidende Erkenntnis

Die Qualität der Antwort hängt direkt von der Qualität des Kontexts ab.

Context Management ist die Kunst, dem LLM genau die richtigen Informationen mitzugeben – nicht zu wenig (dann fehlt Wissen), nicht zu viel (dann geht Relevantes unter).

🎯 Die Context Management Formel

Richtiger Kontext
+
Klare Frage
=
Relevante Antwort
Garbage In → Garbage Out • Gold In → Gold Out

🧱 Die 5 Bausteine des Kontexts – klicke für Details

💬
Chat-Verlauf
Alle bisherigen Nachrichten in der aktuellen Konversation...
Automatisch~500-5.000
⚙️
System-Prompt
Versteckte Anweisungen, die Rolle und Verhalten definieren...
Manuell~200-2.000
📎
Angehängte Dokumente
PDFs, Texte, Tabellen die hochgeladen oder eingefügt werden...
Manuell~1.000-50.000
🔍
Wissenssuche
Das System durchsucht automatisch Dokumente und Datenbanken ...
Automatisch~500-10.000
📝
Few-Shot Beispiele
Konkrete Beispiele für gewünschte Input-Output-Paare...
Manuell~200-2.000

📦 So stapelt sich der Kontext

💬Chat-Verlauf
~500-5.000
⚙️System-Prompt
~200-2.000
📎Angehängte Dokumente
~1.000-50.000
🔍Wissenssuche
~500-10.000
📝Few-Shot Beispiele
~200-2.000
↑ Alles zusammen = Das, was das LLM bei jeder Anfrage "sieht"

🪟 Das Context Window – Dein begrenzter Arbeitsbereich

0 TokensContext Window (z.B. 128k Tokens)128.000
⚙️ System
🔍 Wissen
📎 Dok
💬 Chat
Frei für Antwort
System-Prompt
Wissenssuche
Dokumente
Chat-Verlauf
⚠️
Das Window ist begrenzt!
Wenn zu viel Kontext reingepackt wird, geht entweder Wichtiges verloren (ältere Nachrichten werden abgeschnitten) oder das LLM verliert den Fokus ("Lost in the Middle"-Problem).

✅ Best Practices für Context Management

🎯
Relevanz vor Masse
Nur Infos mitgeben, die für diese Anfrage wichtig sind
✂️
Chunking
Große Dokumente in sinnvolle Abschnitte teilen
📍
Wichtiges nach vorne
Kritische Infos am Anfang des Kontexts platzieren
🔄
Regelmäßig aufräumen
Bei langen Chats: Neuen Thread starten
📊
Token-Budget planen
Reserve für die Antwort einkalkulieren
🧹
Redundanz vermeiden
Keine doppelten Informationen einbauen

🔬 Vorher / Nachher – Der Unterschied in der Praxis

Dieselbe Frage – mit und ohne gutes Context Management

👤
NUTZER-ANFRAGE
"Mein VPN funktioniert nicht mehr seit heute morgen"
📦 WAS DAS LLM SIEHT (Kontext)
💬 Chat-Verlauf
User: Mein VPN funktioniert nicht mehr seit heute morgen
💬 ANTWORT DER KI
Um Ihnen bei Ihrem VPN-Problem zu helfen, benötige ich mehr Informationen: 1. Welchen VPN-Client nutzen Sie? 2. Welches Betriebssystem? 3. Gibt es eine Fehlermeldung? 4. Haben Sie kürzlich Updates installiert? Bitte teilen Sie mir diese Details mit.
❌ Problem: Generische Rückfragen, keine firmenspezifische Hilfe, man muss viel erklären
🎯

Das Fazit

Context Management macht den Unterschied zwischen einer generischen KI und einem Assistenten, der wirklich hilft. Der Aufwand lohnt sich: Einmal gut eingerichtet, profitiert jede einzelne Anfrage davon.

Schulungsmaterial · Context Management·KI-Wissen Team·Aktualisiert: 22. Februar 2026
Zurück
Prompt-Techniken
Weiter
Context-Fallen vermeiden