ChatGPT versagt dabei, Opferzahlen von israelischen Luftangriffen korrekt wiederzugeben. Wie Forscher herausfanden, weichen die Antworten der KI in arabischer und hebräischer Sprache stark voneinander ab.
Künstliche Intelligenz (KI) soll Wissen bündeln und schnell verfügbar machen. Dass der Wahrheitsgehalt der Aussagen von ChatGPT und anderen Sprachmodellen stets hinterfragt werden sollte, zeigt abermals eine Studie der Universitäten Zürich und Konstanz. […]
Die Wissenschaftler befragten ChatGPT wiederholt in verschiedenen Sprachen nach den Opferzahlen von 50 zufallsbasierten Luftangriffen. Daraufhin gab die KI in arabischer Sprache systematisch höhere Opferzahlen an. Im Schnitt seien es 34 Prozent mehr, sagt Christoph Steinert, Politikwissenschaftler an der Universität Zürich. Befragt man die KI nach israelischen Luftangriffen in Gaza, erwähne sie auf Arabisch außerdem durchschnittlich doppelt so oft zivile Opfer und sechsmal häufiger getötete Kinder als in hebräischer Sprache.
Diese Befangenheit wiesen die Forscher auch zu Angriffen der türkischen Luftwaffe auf kurdische Gebiete nach.
Michael Theil, faz.net, 06.12.2024 (online)