Wir müssen dringend kurz noch über diese „Halluzinationen“ sprechen. Es wird fälschlicherweise davon ausgegangen, dass die Maschine halluziniert. Es sind aber tatsächlich die Menschen, die Täuschungen unterliegen und die LLM-Ergebnisse schlicht überinterpretieren. Es ist ein bisschen so, wie wir Figuren in den Wolken zu erkennen glauben.
Wenn wir ein Buch lesen oder einen Film schauen, dann sehen wir mit Absicht über all die inhaltlichen Ungereimtheiten und sogar über Kommafehler und unstimmige Dialoge hinweg, damit wir das Narrativ und die Illusion genießen können. Das dient der Unterhaltung und dem Seelenfrieden.
Bei KI und speziell LLMs beobachten wir die gleichen Phänomene, nur dass diesmal schier unglaubliche Mengen an Wagniskapital fließen, wenn die Märchengeschichten nur ernsthaft genug behauptet werden. Und dieser Quatsch von einer die Menschheit unterjochenden General Artificial Intelligence mag ja in Buch oder Film ganz unterhaltsam sein, aber sollte nicht dazu verleiten, ein Schauspiel mit der Wirklichkeit zu verwechseln.
Constanze Kurz, Stefan Ullrich, netzpolitik.org, 05.03.2025 (online)