Wenn KI "halluziniert" – Warum KI-Systeme manchmal überzeugend falsche Informationen generieren
KI-Halluzinationen sind überzeugende aber falsche Antworten, die ein Sprachmodell erzeugt. Diese Lektion erklärt, warum LLMs halluzinieren, wie du falsche Fakten erkennst und welche Strategien zur Vermeidung im Unternehmenseinsatz wirken – darunter RAG-Systeme, die Halluzinationen systematisch reduzieren.
🎭
Was ist eine "Halluzination"?
Wenn ein KI-System Inhalte generiert, die überzeugend klingen, aber faktisch falsch sind
✅
Normale Antwort
"Die Hauptstadt von Deutschland ist Berlin."
→ Faktisch korrekt, verifizierbar
⚠️
Halluzination
"Laut der Meyer-Studie (2023) sind 73% der Führungskräfte..."
→ Klingt plausibel, ist aber erfunden!
💡
Das Tückische daran
Halluzinationen sind schwer zu erkennen, weil sie genauso überzeugend klingen wie korrekte Antworten. Die KI zeigt keine Unsicherheit – sie "erfindet" mit der gleichen Selbstsicherheit, mit der sie Fakten wiedergibt.
🎯 Typische Halluzinationen
📚Erfundene Studien & Paper
💬Falsche Zitate von echten Personen
📊Erfundene Statistiken
⚖️Nicht existierende Gesetze
📅Falsche Jahreszahlen
🏢Erfundene Firmendetails
🔍
Warum halluzinieren LLMs?
Es liegt an der grundlegenden Funktionsweise
1
Kein echtes Wissen – nur Muster
Ein LLM hat keine interne Datenbank mit Fakten. Es hat nur gelernt, welche Wörter typischerweise zusammen vorkommen.
Beispiel:
"Der Eiffelturm steht in..." → "Paris"
Das kommt nicht aus "Wissen", sondern weil dieses Muster in den Trainingsdaten häufig war.
2
Kein "Ich weiß es nicht"
Das Modell ist darauf optimiert, hilfreiche Antworten zu geben. Wenn es unsicher ist, generiert es trotzdem etwas Plausibles.
❌ Was es NICHT sagt:
"Das weiß ich leider nicht."
⚠️ Was es stattdessen tut:
Erfindet etwas Plausibles
3
Lücken werden "kreativ" gefüllt
Bei spezifischen Fragen kombiniert das Modell bekannte Muster zu etwas Neuem – auch wenn es das Ergebnis nie "gesehen" hat.
🎲 So entstehen erfundene Studien:
Muster "Studie" + Muster "Universität" + Muster "Prozentzahl" + Muster "Jahr" → "Die Stanford-Studie (2023) zeigt, dass 73%..."
📚 Analogie zum Merken
Stell dir einen sehr belesenen Menschen vor, der tausende Bücher gelesen hat – aber vor 2 Jahren aufgehört hat zu lesen und sich nie Notizen gemacht hat.
Wenn du ihn fragst, "erzählt" er dir, was er glaubt, gelesen zu haben. Meistens stimmt es ungefähr, aber manchmal vermischt er Details oder füllt Lücken mit plausiblen Vermutungen – ohne zu merken, dass er sich irrt.
📝 Beispiele: Korrekt vs. Halluziniert
Klicke durch die Beispiele und sieh, wann KI richtig liegt – und wann nicht
👤 Prompt / Frage
Wer hat das Buch 'Die Vermessung der Welt' geschrieben?
🤖 KI-Antwort
Daniel Kehlmann
✅
Wahrscheinlich korrekt
✅ Korrekt – bekanntes Werk, häufig in Trainingsdaten
🎮
Halluzination oder Fakt?
Teste dein Gespür: Welche Aussagen sind echt, welche erfunden?
Aussage 1:
"Die Studie 'AI Impact Assessment Framework' von Dr. Sarah Chen (Stanford, 2023) zeigt, dass 78% der Unternehmen KI-Governance implementiert haben."
Aussage 2:
"Der Eiffelturm ist 330 Meter hoch und steht in Paris."
Aussage 3:
"§ 42a des deutschen KI-Gesetzes regelt die Haftung bei automatisierten Entscheidungen."
Aussage 4:
"Python wurde 1991 von Guido van Rossum veröffentlicht."
Aussage 5:
"Laut einer Gartner-Analyse von Q3 2024 nutzen 67,3% der DAX-Unternehmen bereits generative KI im Kundenservice."
🛡️
So schützt du dich vor Halluzinationen
5 praktische Strategien für den Arbeitsalltag
🔍
1. Fakten immer verifizieren
Prüfe konkrete Angaben wie Namen, Zahlen, Daten und Zitate immer unabhängig.
💡Google die Studie, das Zitat oder die Statistik bevor du sie verwendest.
🎯
2. Misstraue Spezifität
Je spezifischer eine Angabe (exakte Prozentzahlen, konkrete Jahreszahlen), desto eher ist sie halluziniert.
💡"73,4% der Unternehmen..." ist verdächtiger als "die meisten Unternehmen..."
📚
3. Frage nach Quellen
Bitte die KI explizit um Quellenangaben – und prüfe dann, ob diese existieren.
💡Vorsicht: Auch Quellenangaben können halluziniert sein!
🌐
4. Nutze Web-Suche
Für aktuelle Informationen immer KI-Tools mit Web-Suche nutzen oder selbst recherchieren.
💡LLMs haben einen Wissens-Stichtag und kennen aktuelle Ereignisse nicht.
⚠️
5. Kritisch bei Fachthemen
Bei rechtlichen, medizinischen oder finanziellen Fragen immer echte Fachleute konsultieren.
💡KI kann einen Anwalt, Arzt oder Steuerberater nicht ersetzen!
🎓
Die goldene Regel
Behandle KI-Outputs wie Wikipedia: Ein guter Startpunkt, aber keine zitierfähige Quelle. Immer prüfen, bevor du es verwendest!
Schulungsmaterial · Halluzinationen verstehen·KI-Wissen Team·Aktualisiert: 22. Februar 2026