Was bedeutet „Halluzinieren“?
Wenn KIs Antworten liefern, die formal korrekt sind und perfekt aussehen, aber inhaltlich falsch und „erfunden“ sind, dann nennt man das „halluzinieren“.
Warum halluzinieren KIs?
Dazu ein bisschen Hintergrundinformation:
Die Künstlichen Intelligenzen, mit denen wir es hier zu tun haben, sind sog. Large Language Models (kurz: LLMs), die mit riesigen Mengen an Text (z.B. dem gesamten Internet) trainiert wurden und werden. Vom KI-Typ her sind das sog. „Transformer“ – das steckt auch schon im Namen von z.B. ChatGPT: GPT heisst nämlich „generative pretrained transformer“ also sowas wie „vortrainierter Erzeuger und Transformierer“. LLMs transformieren Text. Sie sind keine Suchmaschinen, die Informationen suchen und Fakten als Ergebnisliste präsentieren – sie erfinden neuen Text. Jedesmal. Und sie tun das aufgrund von Assoziationen und Wahrscheinlichkeiten. Das Training besteht darin, dass Milliarden von sog. „Gewichten“ = Parametern (vergleichbar den Synapsen in unserem Gehirn) verstärkt werden bei richtigen Antworten und geschwächt bei falschen. „Verstärken“ bedeutet höhere Wahrscheinlichkeit und „Schwächen“ bedeutet, die Wahrscheinlichkeit wird verringert. Anders ausgedrückt: Das Training bestimmt, welche Assoziationen bei welchen Wörtern eine höhere und welche niedrigere Wahrscheinlichkeiten bekommen. Training fertig → neue Version des Modells fertig.
Geben wir dem Modell eine Aufgabe …
… (schreiben einen Prompt), dann wird unser Text in sog. Tokens zerlegt – das können Wörter, Silben, Satzzeichen oder Kombinationen daraus sein – und diese Tokens bilden den Ausgangspunkt für die Transformation. Das Modell assoziiert (nach den trainierten Wahrscheinlichkeiten) zu jedem Token ein weiteres Token und dann wieder eins und wieder und wieder. Solange bis ein formal korrekter Text daraus entstanden ist und der wird uns dann als Ergebnis ausgespuckt. Das Modell versteht aber nicht die Bedeutung der Tokens (Wörter). Es weiss nur, mit welcher Wahrsheinlichkeit welche Tokens zu den vorigen Tokens passen. Und weil Sprache bestimmten Mustern folgt, ist auch die Wahrscheinlichkeit gross, dass beim Aneinanderreihen von Wörtern ein formal korrekter Text entsteht. Das Modell hat aber keine Ahnung, was ein Tisch ist oder ein Buch oder eine Sitzung oder ein Bürgermeister – es (er)findet nur Wörter, die zu den vorigen Wörtern passen. Es hat kein „Verständnis“ oder kein „Wissen“ in dem Sinn, wie Menschen das haben.
Stellen Sie sich vor …
…, Sie könnten kein Wort Chinesisch, aber Sie hätten eine Tabelle, die zu jedem chinesischen Wort passende andere chinesische Wörter (mit Wahrscheinlichkeiten) auflistet. Sie könnten auf diese Weise also einen Text zusammenbauen, der mit hoher Wahrscheinlichkeit grossen inhaltlichen Bezug zum Ausgangstext hat und von einem Chinesen verstanden werden kann – ohne aber selbst die Bedeutung der Wörter zu kennen. So ähnlich ist das mit den LLMs. Sie wissen, welches Wort passt, aber sie kennen die Bedeutung des Wortes nicht. Sie können sich korrekt ausdrücken, haben in Wirklichkeit aber keine Ahnung, wovon sie reden.
Richtig oder falsch?
LLMs können also nicht beurteilen, ob das, was sie liefern, richtig ist oder nicht. Und im Training werden sie fürs assoziieren „belohnt“ – das funktioniert ähnlich wie beim Menschen. Das Resultat ist, dass LLMs uns beeindruckend tolle Texte liefern können, die grammatikalisch korrekt und strukturiert aufgebaut sind. Und formal entsprechen sie genau dem, was wir erwarten – aber inhaltlich sind sie oft schlichtweg falsch. Und das kann man den KIs auch nicht wirklich abgewöhnen, denn sie sind eben so trainiert worden. Deshalb müssen wir Menschen auch unbedingt jedesmal prüfen, ob das, was uns die KI liefert, wirklich stimmt. Wir Menschen verstehen den Text – die KI nicht. Zumindest ist das im Moment (noch) so – Stand November 2025. Kann sein, dass zukünftige Versionen der LLMs irgendwann ein Verständnis für die Texte entwickeln – aktuell verstehen sie nichts und deshalb halluzinieren sie eben. Es liegt bei uns Menschen, die Korrektheit der Texte zu prüfen.
Noch.
Interessante Artikel dazu:
- OpenAI Paper: Halluzinationen offenbar unumgänglich | heise online
- Seepferdchen-Emoji verwirrt ChatGPT – und zeigt ein fundamentales KI-Problem | t3n
Was können wir tun?
Als User:
- Mitdenken: Aufmerksam sein und die Antworten von KIs eben nicht per Copy-Paste ungeprüft weitergeben. So steht es auch im EU AI Act: Der Mensch ist für die Richtigkeit verantwortlich.
- Besser prompten: Das Prompt (die Eingabe) ist die beste Möglichkeit, der KI zu sagen, was genau man haben möchte und was nicht. Ein „Wer ist der Bürgemeister von Buxtehude?“ ist kein gutes Prompt. Mehr Kontext hilft und LLMs sind keine Suchmaschinen – siehe Es ist, was es ist.
Gute Prompts zu schreiben ist keine Kunst – das kann man lernen. Gute „Prompting Engineers“ (neuer Beruf) sind derzeit sehr gefragt. Aber auch wenn man nicht sofort den Beruf wechseln möchte, gibt es Möglichkeiten, hier besser zu werden. Sog. „Prompting Frameworks“ z.B. können dabei helfen. - Websuche aktivieren: Ohne die Websuche kann KoKI nur auf Informationen aus seinem trainierten Wissen (derzeit bis einschl. Juni 2024) zurückgreifen – mit aktivierter Websuche auch auf aktuelle Daten aus dem Internet. Aber Vorsicht: Bei aktivierter Websuche werden die Eingaben aus Ihrem Prompt ans Netz weitergegeben, verlassen dann also den geschützten Bereich. SIe sollten bei aktivierter Websuche also keine schützenswerten Daten eingeben.
- Webcrawling nutzen: Mit der Funktion „Website anhängen“ können Sie Ihr Prompt durch die Angabe einer URL ergänzen, die dann gezielt als Wissensquelle für die Antwort genutzt wird. Diese Funktion ist auch mehrfach in einem Prompt nutzbar, sodass mehrere Websites (jeweils eine) angehängt werden können. Auch das erhöht deutlich die Relevanz und die Richtigkeit der generierten Antwort.
- Mehr Kontext liefern: RAG also „Retrieval Augmented Generation“ (etwa: durch Abruf aktueller Daten angereicherte Bearbeitung) liefert relevanten Kontext für die Anfrage und ist eine der stärksten Maßnahmen gegen das Halluzinieren. Dafür gibt es verschiedene Möglichkeiten, z.B. das Anlegen von Wissensdatenbanken und das Erstellen von Assistenten, die auf die Wissensdatenbanken zugreifen und mit „Systemprompts“ auf korrekte Ausgaben „gedrillt“ werden. Generell hilft mehr Kontext dabei, dass die Antworten der LLMs präziser, relevanter und richtiger werden. Siehe auch Es ist, was es ist.
Als Anbieter:
Unsere Techniker und Spezialisten arbeiten ständig daran, den Prozentsatz der halluzinierten Antworten zu reduzieren und die Ausgabe generell besser zu machen. Dazu prüfen wir ständig neue Modelle, feilen an den Systemprompts, schaffen Schnittstellen zu Datenquellen und Workflows, implementieren neue Features und erweitern KoKI mit neuen Möglichkeiten.
Immer wenn es hier Neues zu berichten gibt, werden Sie das hier lesen können -> News
Es gibt noch viel zu tun – wir bleiben dran.

