Zitiert: KI-„Halluzinationen“

Wir müssen dringend kurz noch über diese „Halluzinationen“ sprechen. Es wird fälschlicherweise davon ausgegangen, dass die Maschine halluziniert. Es sind aber tatsächlich die Menschen, die Täuschungen unterliegen und die LLM-Ergebnisse schlicht überinterpretieren. Es ist ein bisschen so, wie wir Figuren in den Wolken zu erkennen glauben.

Wenn wir ein Buch lesen oder einen Film schauen, dann sehen wir mit Absicht über all die inhaltlichen Ungereimtheiten und sogar über Kommafehler und unstimmige Dialoge hinweg, damit wir das Narrativ und die Illusion genießen können. Das dient der Unterhaltung und dem Seelenfrieden.

Bei KI und speziell LLMs beobachten wir die gleichen Phänomene, nur dass diesmal schier unglaubliche Mengen an Wagniskapital fließen, wenn die Märchengeschichten nur ernsthaft genug behauptet werden. Und dieser Quatsch von einer die Menschheit unterjochenden General Artificial Intelligence mag ja in Buch oder Film ganz unterhaltsam sein, aber sollte nicht dazu verleiten, ein Schauspiel mit der Wirklichkeit zu verwechseln.

Constanze Kurz, Stefan Ullrich, netzpolitik.org, 05.03.2025 (online)

Onlinefilm.org

Zitat der Woche
Gut zur Entgiftung des öffentlichen Diskurses wäre es, auch in den Beiträgen jener, die anders denken als man selbst, die klügsten Gedanken zu suchen, nicht die dümmsten. Man läuft natürlich dann Gefahr, am Ende nicht mehr uneingeschränkt Recht, sondern einen Denkprozess in Gang gesetzt zu haben.   Klaus Raab, MDR-Altpapier, 25.05.2020, (online)    
Out of Space
Auf seinem YouTube-Kanal „Ryan ToysReview“ testet der kleine Amerikaner Ryan seit März 2015 allerhand Spielzeug. Die Beschreibung des erfolgreichen Channels ist simpel: „Rezensionen für Kinderspiele von einem Kind! Folge Ryan dabei, wie er Spielzeug und Kinderspielzeug testet.“ Ryan hat 17 Millionen Abonnenten und verdient 22 Millionen Dollar im Jahr. Berliner Zeitung, 04.12.2018 (online)