Conveso LogoMeine Akademie

Lektion 3 von 6

Warum KI halluziniert — und was dagegen hilft

Halluzination ist keine Fehlfunktion

Der Begriff "Halluzination" suggeriert einen Ausnahmezustand. Das Modell "erfindet" etwas — und normalerweise tut es das nicht. Diese Vorstellung ist irreführend. Halluzinationen sind kein Fehler im Code und kein Ausreißer, sondern die direkte Folge der Art, wie LLMs Antworten erzeugen.

In dieser Lektion schauen wir uns an, woher Halluzinationen technisch kommen, in welchen Situationen sie gehäuft auftreten und welche Methoden heute wirklich helfen, sie zu reduzieren.

Der technische Ursprung

Aus den vorherigen Lektionen wissen Sie: Ein LLM wählt in jedem Schritt das wahrscheinlichste nächste Token aus einer Verteilung. Das Modell ist darauf trainiert, plausible Fortsetzungen zu erzeugen, nicht wahre Fortsetzungen. Plausibilität und Wahrheit sind statistisch korreliert — aber nicht identisch.

Ein Beispiel: Sie fragen nach einer Kennzahl, die es so nicht gibt, aber plausibel klingt. Das Modell hat in seinem Training Tausende ähnliche Kennzahlen gesehen. Die statistisch wahrscheinlichste Antwort ist: eine Zahl, die aussieht wie die anderen. Ob sie stimmt, weiß das Modell nicht — es hat keinen Zugriff auf eine Wahrheitsprüfung.

Halluzinationen sind deshalb nicht zufällig. Sie treten besonders häufig in vier Situationen auf:

  1. Wissenslücke im Training. Das Thema war in den Trainingsdaten unterrepräsentiert oder zu neu.
  2. Spezifizität jenseits des Gelernten. Die Frage verlangt ein konkretes Detail (eine Zahl, ein Datum, eine Quelle), für das die statistischen Muster zu weit gestreut sind.
  3. Widerspruch im Kontext. Im Prompt stehen widersprüchliche Informationen, und das Modell verbindet sie zu einer neuen, falschen Aussage.
  4. Framing, das eine Antwort suggeriert. Wer "nenne mir drei Studien, die X belegen" fragt, bekommt drei Studien — auch dann, wenn es nur eine gibt. Das Modell neigt dazu, dem impliziten Auftrag zu folgen.

Was Halluzinationen nicht sind

Wichtig zur Abgrenzung:

  • Keine Unschärfen im Ton. Wenn ein Modell eine Zusammenfassung anders formuliert als erwartet, ist das keine Halluzination.
  • Keine abweichenden Meinungen. Wenn das Modell zu einer Einschätzung kommt, die Sie nicht teilen, muss das kein Fehler sein.
  • Keine bewusste Lüge. LLMs haben keine Absicht. Sie verfolgen kein Ziel außer der nächsten Token-Vorhersage.

Halluzinationen sind konkrete, überprüfbare Aussagen, die faktisch falsch sind — meist Zahlen, Namen, Zitate, Quellen, Datumsangaben oder technische Details.

Fünf Gegenmaßnahmen, die im Alltag wirken

1. Kontext statt Training

Die wirksamste Maßnahme: Die benötigten Fakten direkt in den Prompt legen, statt sich auf das Gedächtnis des Modells zu verlassen. Fragen wie "Fasse das angehängte PDF zusammen" sind deutlich robuster als "Was steht in Quelle X?".

Auf Unternehmensebene wird dieser Ansatz als Retrieval-Augmented Generation (RAG) systematisiert — dazu kommen wir in Lektion 6.

2. Unsicherheit explizit erlauben

Modelle neigen dazu, eine Antwort zu liefern, auch wenn sie nicht weiterkommen. Ein Zusatz im Prompt wie "Wenn du dir nicht sicher bist, antworte 'unbekannt' oder frage nach" senkt die Halluzinationsrate deutlich. Anthropic, OpenAI und Google haben in ihren aktuellen Modellen an dieser Eigenschaft aktiv gearbeitet — aber sie muss häufig durch den Prompt noch verstärkt werden.

3. Quellen verlangen, dann prüfen

Wenn Sie nach Zahlen, Zitaten oder Studien fragen, verlangen Sie explizit Quellen — und prüfen Sie sie. Erfundene Quellen sind ein häufiger Halluzinationstyp. Eine Kombination aus "bitte nenne die Quelle" und nachträglicher Verifikation ist meist aufwendiger als nötig; besser ist, dem Modell Quellen von Anfang an zur Verfügung zu stellen.

4. Temperature und Struktur

Bei Faktenabfragen eine niedrige Temperature (0.0 bis 0.3) wählen, wenn das Tool die Einstellung erlaubt. Strukturierte Ausgabeformate (JSON mit festen Feldern) reduzieren den Spielraum zusätzlich.

5. Kritische Aussagen verifizieren

Die letzte Linie ist menschliche Prüfung. Der EU AI Act fordert in Artikel 4 KI-Kompetenz von Nutzenden. Ein zentraler Bestandteil dieser Kompetenz ist die Fähigkeit, KI-Ausgaben kritisch zu lesen — besonders bei Zahlen, Rechtsauskünften und Gesundheitsthemen.

Wann sind Halluzinationen besonders kritisch?

Nicht jede Halluzination ist gleich folgenreich. Ordnen Sie Risikofelder nach Konsequenz:

  • Hoch: Rechtsberatung, medizinische Auskünfte, Finanzentscheidungen, sicherheitsrelevante Daten.
  • Mittel: Marketingtexte mit Zahlen, Pressemeldungen, Berichte für Stakeholder.
  • Niedrig: Brainstorming, Entwurfstexte, die ohnehin überarbeitet werden, Übersetzungen bekannter Inhalte.

Die Grundregel: Je näher eine KI-Antwort einer Entscheidung oder einer öffentlichen Aussage ist, desto strenger muss die Prüfung sein.

Was Sie aus dieser Lektion mitnehmen

Halluzinationen sind die Kehrseite der Generalisierungsfähigkeit eines LLM. Sie lassen sich nicht vollständig abstellen, aber durch Prompt-Design, Retrieval und menschliche Prüfung weit zurückdrängen. Der wichtigste Wandel im Denken: Ein LLM "weiß" nichts — es rekonstruiert, und diese Rekonstruktion kann danebenliegen.

Im nächsten Kapitel geht es um eine andere Grenze, die im Alltag oft übersehen wird: das Context Window, der Arbeitsspeicher einer KI-Sitzung.

Wissenscheck

Was ist die technische Hauptursache für Halluzinationen?

Welche Maßnahme reduziert Halluzinationen am zuverlässigsten?