Nun basieren KI-Suchmaschinen wie auch Chat-GPT auf sogenannten Large Language Models (LLM). Das sind Systeme, die riesige Mengen Sprachdaten verarbeiten und so gelernt haben, das nächste wahrscheinliche Wort auszugeben. Sie spucken also plausibel klingende Wortfolgen aus. Für Emily M. Bender, Linguistik-Professorin an der Universität Washington, sind richtige Ergebnisse einer KI-Suchmaschine und von Chatbots wie Chat-GPT daher „nur Zufall“. Zudem, schreibt sie in einem Beitrag, sei es schwer zu erkennen, ob wichtige Informationen fehlen. Die Antwort der KI sehe auf den ersten Blick zwar vertrauenswürdig aus, aber gerade das sei bedenklich, denn ein System, das in 95 Prozent der Fälle richtig liege, sei gefährlicher als eines, bei dem 50 Prozent der Ergebnisse zuträfen: „Denn Menschen werden wahrscheinlich weniger in der Lage sein, die fehlenden fünf Prozent zu überprüfen.“ […]
Aktuelle Chatbots verlassen sich stark auf die oberflächliche Relevanz von Informationen. Die Sprachmodelle bevorzugen vor allem Texte, die Fachsprache enthalten oder mit entsprechenden Schlagwörtern angereichert sind. Dagegen vernachlässigen sie Kriterien, die Menschen normalerweise anwenden, wenn sie Glaubwürdigkeit von Informationen beurteilen sollen. Beispielsweise, ob wissenschaftliche Referenzen genannt oder eine objektive, vorurteilsfreie Sprache benutzt werden.
Mirjam Hauck, sueddeutsche.de, 23.12.2024 (online)