AI Overviews können fantasieren: Warum ist das ein großes Problem?

google 

Google-Nutzer begegnen den sogenannten AI Overviews inzwischen regelmäßig, also kurzen Zusammenfassungen zu Fragen des Alltags, formuliert von künstlicher Intelligenz. Sie erscheinen direkt über den eigentlichen Suchergebnissen, wirken fundiert, durchdacht und verblüffend menschlich. Das Problem ist allerdings, dass sie nicht selten komplett erfunden sind.


android smartphone
Bildquelle: Unsplash

Ein Beispiel sorgte kürzlich für Spott und Stirnrunzeln zugleich. Auf die Frage, wie man Käse an Pizza besser haften lässt, empfahl die KI sinngemäß, eine dünne Schicht Klebstoff zu verwenden. Die Antwort wirkte strukturiert und sprachlich überzeugend, war jedoch völliger Unsinn. So kurios dieses Beispiel auch erscheinen mag, es zeigt ein viel größeres Problem auf, denn was viele nicht wissen ist, dass diese Systeme dazu neigen zu halluzinieren.

Wenn die Maschine Märchen erzählt

Der Begriff klingt zunächst wie eine charmante Eigenart, fast wie ein digitales Tagträumen, doch im Zusammenhang mit Künstlicher Intelligenz beschreibt „halluzinieren“ eine gravierende Schwäche. Die KI gibt Informationen aus, die schlichtweg nicht stimmen und sich dennoch wie Tatsachen lesen.

Wenn zum Beispiel nach einer Spielothek ohne Verifizierung gesucht wird, dann aber nur Ergebnisse mit dieser vorgeschlagen werden, entsteht Verwirrung und der Suchende verliert Zeit. Oder aber er glaubt, dass ein bestimmter Anbieter legal ist, obwohl er eigentlich illegal ist. Sehr kompliziert – besonders bei einer sich ständig ändernden Rechtslage im Glücksspiel.

Anders als beim Menschen liegt hier keine bewusste Täuschung vor, vielmehr handelt es sich um das Ergebnis eines Rechenprozesses, der die wahrscheinlichste Formulierung zu einer Anfrage erzeugt, ganz gleich ob diese der Realität entspricht oder nicht.

Große Sprachmodelle wie GPT, Gemini oder Claude arbeiten mit Wahrscheinlichkeiten. Sie analysieren riesige Textmengen, um zu lernen, welche Wörter typischerweise aufeinander folgen. Dabei entsteht eine bemerkenswert flüssige Sprache, die beeindruckt, jedoch nicht automatisch der Wahrheit verpflichtet ist.

Wenn Informationen fehlen oder das Modell unsicher ist, rät es schlicht, was passen könnte. Das Ergebnis sind Sätze, die in sich logisch wirken, mitunter sogar neue Quellen oder Zitate erfinden und dabei auf erstaunliche Weise realistisch klingen.

Wie können solche Fehler überhaupt entstehen?

Halluzinationen entstehen nicht aufgrund schlampiger Programmierung. Sie sind fest im System verankert. Der Ursprung liegt im Material, aus dem KI ihre Welt konstruiert, nämlich den Trainingsdaten. Diese stammen zu großen Teilen aus dem offenen Internet, wo Qualität bekanntlich stark variiert. Fehlinformationen, Spekulationen und Widersprüche fließen ebenso ein wie gut recherchierte Inhalte. Für ein Modell, das keinen Begriff von Wahrheit hat, ist alles gleichwertig.

Besonders problematisch wird es, wenn AI Overviews Informationen aus mehreren Quellen kombinieren. Dabei entstehen neue Bedeutungen, die in keiner der ursprünglichen Texte enthalten waren. Es ergibt sich ein Mosaik aus Textfragmenten, die scheinbar perfekt zusammenpassen, jedoch eine neue und potenziell falsche Geschichte erzählen. Die KI kann diese Widersprüche nicht auflösen, da sie die Aussagen nicht versteht. Sie imitiert, sie interpretiert nicht.

Was passieren kann, wenn Fiktion als Fakt durchgeht

Der Klebstoff auf der Pizza war eine skurrile Anekdote, doch die Schattenseite dieser Technologie zeigt sich deutlich drastischer, wenn es um sensible Bereiche wie Medizin, Recht oder Technik geht. In mehreren Fällen präsentierte die Google-KI vermeintliche medizinische Empfehlungen, die falsch waren und im schlimmsten Fall gesundheitliche Schäden zur Folge haben könnten. Auch im juristischen Bereich wurden frei erfundene Paragraphen oder Urteile angezeigt, die nie existierten.

Das Vertrauen in digitale Informationsdienste hängt entscheidend davon ab, ob deren Inhalte verlässlich sind. Doch wenn selbst prominente Plattformen wie Google oder Microsoft wiederholt fehlerhafte Antworten veröffentlichen, gerät dieses Vertrauen zunehmend ins Wanken. Besonders heikel ist dabei die sogenannte Autoritätsillusion. Je überzeugender und eloquenter eine KI schreibt, desto größer ist die Wahrscheinlichkeit, dass ihr geglaubt wird. Selbst dann, wenn der Inhalt frei erfunden wurde.

Mit der zunehmenden Anzahl solcher Fälle stellt sich unweigerlich die Frage nach der Zukunft automatisierter Informationsvermittlung. Wenn jede zweite Antwort eine potenzielle Halluzination ist, beginnt der Begriff der Wahrheit zu verschwimmen. Damit gerät auch das Fundament ins Rutschen, auf dem Bildung, Journalismus und öffentliche Debatten aufgebaut sind.

Zeit für kritische Prüfung und technische Gegensteuerung

Die größte Schwierigkeit liegt in der Erkennbarkeit. Für Laien ist es nahezu unmöglich, Halluzinationen zu identifizieren. Sprachlich sind sie oft perfekt, die Formulierungen glatt und schlüssig. Anders als bei klassischen Fake News fehlt der irritierende Bruch, der Skepsis auslösen könnte. Es gibt keine auffälligen Fehler, keine sprachlichen Stolpersteine, nur Texte, die lügen, ohne es zu wissen.

Der einzige Ausweg bleibt die Eigenrecherche. Es heißt Aussagen hinterfragen, andere Quellen prüfen und alternative Perspektiven einholen, doch dieser Aufwand steht im Widerspruch zur bequemen Nutzung solcher Systeme. Die Realität sieht so aus, dass je einfacher und glaubwürdiger die Antwort präsentiert wird, desto größer ist die Gefahr, dass sie unhinterfragt bleibt.

Unternehmen wie Google versuchen, gegenzusteuern. Dazu zählen Einschränkungen bei sensiblen Themen, technische Filter und Feedbackmechanismen. Einige Plattformen markieren KI-generierte Inhalte oder zeigen Herkunftsangaben an. Diese Ansätze sind erste Schritte, doch das strukturelle Problem lösen sie nicht.

Genie oder Wahnsinn – können Halluzinationen auch nützlich sein?

Trotz aller Kritik sollte eine Perspektive nicht unterschlagen werden, denn in kreativen Prozessen können KI-Halluzinationen durchaus nützlich sein. Beim Entwickeln von Romanideen, beim Brainstorming für neue Produkte oder beim Gedankenspiel über hypothetische Szenarien liefern diese unlogischen Einfälle oft überraschende Impulse. In solchen Kontexten ist die fantasievolle Ader der Maschine nicht nur unproblematisch, sondern sogar willkommen.

Die Schwierigkeiten beginnen dann, wenn diese kreative Freiheit mit einem Informationsanspruch verwechselt wird. Was in der Kunst als Inspiration funktioniert, wird im Nachrichtenteil zur Desinformation. Deshalb braucht es klare Spielregeln. Halluzinierende Maschinen haben ihren Platz, aber nicht in der Wissensvermittlung. Ihre Einfälle können unterhalten, sie können inspirieren, doch sie dürfen nicht als Wahrheit gelten. Der Umgang mit diesen Werkzeugen wird zur Kulturtechnik. Zu wissen, wie und wann sie richtig eingesetzt werden, ist entscheidend.

Der Fortschritt ist mit Vorsicht zu genießen

AI Overviews sind weit mehr als nur eine Spielerei mit technologischem Beigeschmack in der Google-Suche, sie zeigen sehr deutlich, wie eng Fortschritt und Unsicherheit miteinander verwoben sein können. Die Halluzinationen, die dabei entstehen, sind nicht zufällig, sondern Ausdruck der Art und Weise, wie Maschinen Sprache verarbeiten.

Sprachmodelle haben kein Verhältnis zur Wahrheit, sie rekonstruieren, was plausibel klingt und überlassen die Bewertung dem Menschen. Deshalb braucht es kritisches Denken, technische Weiterentwicklung und klare Verantwortung, wenn diese Systeme zum Einsatz kommen. Denn entscheidend ist nicht, wie schön eine Antwort klingt, sondern ob sie tatsächlich stimmt.




Teile diesen Artikel:

Facebook twitter Pocket Pocket