Halluzination
// Beschreibung
Eine Halluzination in der KI ist eine sicher und überzeugend formulierte Antwort eines Large Language Models, die faktisch falsch ist. Das Modell „erfindet" Informationen — z. B. nicht existierende Studien, falsche Statistiken oder fiktive Zitate — und präsentiert sie mit derselben Konfidenz wie korrekte Fakten. Dies ist eines der größten praktischen Probleme beim Einsatz von KI.
Ursachen: LLMs sind statistische Modelle, die wahrscheinliche Wortfolgen vorhersagen — sie haben kein echtes „Wissen" oder Wahrheitsverständnis. Halluzinationen treten häufiger auf bei: seltenen Themen (wenige Trainingsdaten), sehr spezifischen Fragen (Zahlen, Daten, Namen), hoher Temperature-Einstellung und wenn das Modell unter Druck steht, eine Antwort zu geben statt „Ich weiß nicht" zu sagen.
Gegenmaßnahmen: RAG (Retrieval-Augmented Generation) reduziert Halluzinationen um 40–60 %, indem es das Modell mit verifizierten Quellen versorgt. Grounding auf Suchergebnisse (wie Perplexity), niedrigere Temperature-Werte, Chain-of-Thought-Prompting und explizite Anweisungen zur Quellenangabe helfen ebenfalls. Für kritische Anwendungen ist menschliche Überprüfung unerlässlich.
Im Marketing besonders riskant: Falsche Produktdaten, erfundene Statistiken in Reports, fehlerhafte rechtliche Aussagen oder falsche Wettbewerber-Informationen. Ein Halluzinations-Bewusstsein im Team und klare Fact-Checking-Workflows sind essentiell für den verantwortungsvollen KI-Einsatz.
// Anwendungsbereiche
- Fact-Checking-Workflows entwickeln
- RAG-Systeme zur Halluzinationsreduktion
- Qualitätssicherung von KI-Content
- Prompt-Design für geringere Halluzinationsrate
- Schulung von Teams zum Halluzinations-Bewusstsein
- Benchmarking von Modellen auf Faktentreue
Halluzinationen sind der Grund, warum wir jeden KI-generierten Content vor Veröffentlichung prüfen. RAG und klare Fact-Checking-Prozesse sind Pflicht. Wir trainieren unsere Teams aktiv im Erkennen von KI-Halluzinationen.
// Häufig gestellte Fragen
Was sind Halluzinationen bei KI?
Wie kann man Halluzinationen vermeiden?
Welches LLM halluziniert am wenigsten?
Sind Halluzinationen gefährlich?
// Verwandte Einträge
Brauchst du Hilfe mit Halluzination?
Wir beraten dich gerne zu Einsatz, Integration und Strategie.
Kontakt aufnehmen