Halluzination
Eine KI-Halluzination entsteht, wenn ein KI-System überzeugend klingende, aber falsche oder erfundene Informationen als Tatsache präsentiert.
Was ist eine Halluzination?
Von einer Halluzination spricht man, wenn eine KI etwas behauptet, das nicht stimmt — und dabei völlig überzeugend klingt. Das System erfindet Fakten, Zahlen oder Zusammenhänge, die es nicht gibt, und präsentiert sie mit der gleichen Sicherheit wie korrekte Informationen.
Warum passiert das? KI-Sprachmodelle sind darauf trainiert, wahrscheinliche Textfortsetzungen zu erzeugen. Wenn das Modell keine echten Daten zu einem Thema hat, füllt es die Lücke mit dem, was sprachlich plausibel klingt — auch wenn es inhaltlich falsch ist. Das ist keine Böswilligkeit, sondern eine technische Eigenschaft der Funktionsweise.
Warum ist das für Unternehmen relevant?
Halluzinationen sind der Hauptgrund, warum KI-Ergebnisse nie blind übernommen werden sollten. Besonders in geschäftskritischen Bereichen wie Verträgen, Finanzberichten oder Kundenberatung kann eine falsche KI-Aussage erheblichen Schaden anrichten.
Das bedeutet aber nicht, dass KI unbrauchbar ist. Es bedeutet, dass man die richtigen Schutzmaßnahmen einbauen muss. Durch Techniken wie RAG (Retrieval Augmented Generation), bei der die KI auf echte Unternehmensdaten zugreift, lässt sich das Halluzinationsrisiko drastisch reduzieren. Außerdem sollte bei wichtigen Entscheidungen immer ein Mensch die KI-Antwort überprüfen.
Halluzinationen in der Praxis
Ein Beispiel: Sie fragen eine allgemeine KI nach den Umsatzzahlen Ihres Unternehmens im letzten Quartal. Die KI kennt diese Daten nicht, erfindet aber eine plausibel klingende Zahl. Wenn niemand prüft, könnte diese falsche Zahl in einer Präsentation landen.
Die Lösung: Die KI wird mit Ihren echten Daten verbunden. Wenn sie nun nach Umsatzzahlen gefragt wird, liest sie die tatsächlichen Werte aus Ihrem System und gibt die korrekten Zahlen wieder. Zusätzlich kann sie angeben, woher die Information stammt.
Ein weiteres Schutzkonzept: Die KI wird angewiesen, bei Unsicherheit offen zu sagen “Dazu habe ich keine Informationen” statt etwas zu erfinden. Gut konfigurierte Systeme setzen das zuverlässig um und reduzieren Halluzinationen deutlich — vollständig ausschließen lassen sie sich jedoch nicht.
Hinweis: Dieses Glossar dient der allgemeinen Information und ersetzt keine Rechts-, Steuer- oder Unternehmensberatung. Trotz sorgfältiger Erstellung übernehmen wir keine Gewähr für Richtigkeit, Vollständigkeit und Aktualität. Details findest du im Haftungshinweis.
Verwandte Begriffe
KI-Ethik
KI-Ethik beschäftigt sich mit den moralischen Fragen beim Einsatz von Künstlicher Intelligenz -- von Datenschutz über Transparenz bis hin zu fairen Entscheidungen.
Large Language Model
Large Language Models (LLMs) sind KI-Systeme, die menschliche Sprache auf einem sehr hohen Niveau verstehen und erzeugen können -- sie stecken hinter Tools wie ChatGPT und Claude.
Prompt Engineering
Prompt Engineering ist die Kunst, KI-Systemen die richtigen Anweisungen zu geben, damit sie genau die gewünschten Ergebnisse liefern.
RAG (Retrieval Augmented Generation)
RAG ist eine Technik, bei der eine KI zuerst relevante Informationen aus Ihren Unternehmensdaten sucht und diese dann für präzise, fundierte Antworten nutzt.
Du willst KI konkret einsetzen?
Vom Verstehen zum Umsetzen — wir helfen dir, KI in deinem Unternehmen produktiv zu nutzen.
Kostenloses Erstgespräch →