Kann KI lügen? Oder weiß sie gar nicht, was sie tut?

von Maximilian Wüstenkamp

23. Februar 2026

ChatGPT erfindet Quellen, die nie existiert haben. Gemini behauptet selbstbewusst Dinge, die schlicht falsch sind. Und das alles klingt so überzeugend, dass du es fast glauben würdest. Aber ist das wirklich Lügen? Oder passiert hier etwas grundlegend anderes? Dieser Artikel erklärt dir, was hinter sogenannten KI-Halluzinationen steckt und warum sie sich so schwer abschalten lassen.

Infos auf einen Blick

  • KI lügt nicht bewusst: Große Sprachmodelle haben kein Bewusstsein und keine Absicht. Sie produzieren falsche Informationen, weil sie statistisch auf Plausibilität optimiert sind, nicht auf Wahrheit.
  • Halluzinationen sind kein Fehler im klassischen Sinne: Sie entstehen aus denselben Mechanismen, die KI überhaupt erst so leistungsfähig machen. Wer sie vollständig abschalten will, müsste das Modell grundlegend verändern.
  • Das Trainings-Setup belohnt Raten: Sprachmodelle werden in der Evaluation oft dafür belohnt, eine Antwort zu liefern, auch wenn sie unsicher sind. Das verstärkt das Problem systematisch.

Was genau ist eine KI-Halluzination?

Der Begriff klingt dramatischer als er ist, trifft die Sache aber gut. Eine KI-Halluzination bezeichnet eine Antwort, die sprachlich überzeugend und kohärent klingt, inhaltlich aber schlicht falsch ist. Das Tückische daran: Die KI liefert diese Antwort mit derselben Selbstsicherheit, mit der sie korrekte Informationen präsentiert. Es gibt kein Zögern, keinen Hinweis darauf, dass hier etwas nicht stimmt.

Ein klassisches Beispiel: Du bittest ChatGPT um wissenschaftliche Quellen zu einem Thema. Die KI liefert dir fünf Titel, komplett mit Autoren, Verlagen und Erscheinungsjahren. Alles klingt seriös. Alles ist erfunden. Nicht ein einziger dieser Titel existiert in der realen Welt.

Das ist keine Ausnahme, das ist ein strukturelles Merkmal großer Sprachmodelle. Und wenn du verstehst warum, wird klar, warum das Problem so hartnäckig ist.

Wie ein Sprachmodell eigentlich denkt

Um Halluzinationen zu verstehen, musst du verstehen, wie KI-Sprachmodelle grundsätzlich funktionieren. Sie sind keine Wissensdatenbanken, die Fakten abrufen. Sie sind statistische Maschinen, die auf der Basis von riesigen Textmengen gelernt haben, welches Wort wahrscheinlich als nächstes kommt.

Das bedeutet: Wenn du der KI eine Frage stellst, berechnet sie nicht, was wahr ist. Sie berechnet, was sprachlich plausibel klingt. Was in diesem Kontext statistisch am wahrscheinlichsten folgt. Und meistens stimmt das auch mit der Wirklichkeit überein, weil die Wirklichkeit ja der Hauptinhalt der Trainingsdaten war.

Aber eben nicht immer. Bei seltenen Fakten, bei sehr spezifischen Fragen oder bei Themen, die in den Trainingsdaten kaum vorkamen, fehlen der KI die statistischen Anker. Was sie dann tut, ist das, wofür sie optimiert wurde: Sie vervollständigt den Text auf eine Weise, die sich richtig anfühlt. Auch wenn sie es nicht ist.

Warum Halluzinationen untrennbar mit Kreativität verbunden sind

Hier liegt der Kern des Problems, und gleichzeitig der Grund, warum Halluzinationen so schwer zu beheben sind. Die Fähigkeit, die zu Halluzinationen führt, ist dieselbe Fähigkeit, die KI erst so nützlich macht.

Wenn du ein KI-Modell bittest, einen kreativen Text zu schreiben, einen Programmiercode zu generieren oder eine komplexe Frage in einfachen Worten zu erklären, dann profitierst du genau davon, dass das Modell nicht nur abruft, was es gesehen hat, sondern kombiniert, interpoliert und auf neue Situationen überträgt. Diese Flexibilität, dieses Schließen von Lücken, ist der Kern generativer KI.

Wenn das Modell aber dieselbe Mechanik auf eine Faktenfrage anwendet, bei der es keine sichere Antwort kennt, halluziniert es. Es schließt eine Lücke, die eigentlich offen bleiben sollte.

Ein vollständig halluzinationsfreies Modell wäre ein deutlich weniger fähiges Modell. Das ist keine Schutzbehauptung der Entwickler, sondern ein echtes technisches Dilemma.

Das Schultest-Problem: Warum KI lieber rät als schweigt

Forscher bei OpenAI haben ein Phänomen beschrieben, das sich wie ein schlechter Schultest anfühlt. In vielen gängigen Benchmarks, also den standardisierten Tests, mit denen KI-Modelle bewertet werden, wird eine falsche Antwort besser bewertet als keine Antwort. Das Modell lernt dadurch, dass Raten belohnt wird. Bescheidenheit wird bestraft.

Das ist ein systemisches Problem, das tief ins Training eingebettet ist. Die KI lernt nicht, zu sagen: „Das weiß ich nicht.“ Sie lernt, eine Antwort zu produzieren, weil das im Training mehr Punkte brachte. Wer dieses System verstanden hat, begreift, warum Halluzinationen nicht einfach mit einem Update verschwinden werden.

Was du tun kannst, um dem Problem zu begegnen

So gehst du sicherer mit KI-Antworten um:

  • Fakten, Quellen und Zahlen immer eigenständig überprüfen, besonders wenn sie sehr spezifisch oder wenig bekannt sind
  • Frag die KI gezielt, wie sicher sie sich bei einer Antwort ist. Gute Modelle können Unsicherheit signalisieren, wenn du danach fragst
  • Nutze KI für das, wofür sie stark ist: Struktur, Formulierungen, Ideen. Verlasse dich nicht auf sie als alleinige Quelle für Fakten

Halluzinationen werden nicht verschwinden. Die Technologie wird besser, die Raten werden sinken. Aber das Grundprinzip bleibt: KI strebt nach Plausibilität, nicht nach Wahrheit. Wer das verinnerlicht hat, nutzt KI klüger als die meisten.

Fazit: Nicht böse, aber gefährlich

Lügen setzt Bewusstsein voraus. Es setzt voraus, dass jemand die Wahrheit kennt und sich bewusst dafür entscheidet, etwas anderes zu sagen. KI hat weder das eine noch das andere.

Was KI tut, ist aber in gewisser Weise gefährlicher als Lügen: Sie produziert falsche Informationen ohne jede Absicht, ohne jeden Zweifel und ohne die Möglichkeit, selbst zu merken, dass etwas nicht stimmt.

Ein Mensch, der lügt, weiß, dass er lügt. Eine KI, die halluziniert, weiß es nicht. Das macht die Sache für dich als Nutzer so heikel. Du kannst einer Lüge misstrauen, wenn du den Kontext kennst. Einer selbstbewusst vorgetragenen Halluzination zu misstrauen erfordert, dass du den Inhalt selbst überprüfst, unabhängig davon, wie überzeugend er klingt.

KI irrt sich also, ohne es zu merken. Das ist kein Argument gegen die Nutzung von KI. Es ist ein Argument dafür, sie mit offenem Kopf zu nutzen und das kritische Denken nicht an sie auszulagern.

Maximilian Wüstenkamp

Maximilian beschäftigt sich seit dem Launch von ChatGPT im Jahr 2022 intensiv mit KI und weiß seitdem, dass es noch weitaus mehr gibt als nur generative LLMs.