Zitiert: Wie ChatGPT bewaffnete Konflikte befeuert

ChatGPT versagt dabei, Opferzahlen von israelischen Luftangriffen korrekt wiederzugeben. Wie Forscher herausfanden, weichen die Antworten der KI in arabischer und hebräischer Sprache stark voneinander ab.

Künstliche Intelligenz (KI) soll Wissen bündeln und schnell verfügbar machen. Dass der Wahrheitsgehalt der Aussagen von ChatGPT und anderen Sprachmodellen stets hinterfragt werden sollte, zeigt abermals eine Studie der Universitäten Zürich und Konstanz.  […]

Die Wissenschaftler befragten ChatGPT wiederholt in verschiedenen Sprachen nach den Opferzahlen von 50 zufallsbasierten Luftangriffen. Daraufhin gab die KI in arabischer Sprache systematisch höhere Opferzahlen an. Im Schnitt seien es 34 Prozent mehr, sagt Christoph Steinert, Politikwissenschaftler an der Universität Zürich. Befragt man die KI nach israelischen Luftangriffen in Gaza, erwähne sie auf Arabisch außerdem durchschnittlich doppelt so oft zivile Opfer und sechsmal häufiger getötete Kinder als in hebräischer Sprache.

Diese Befangenheit wiesen die Forscher auch zu Angriffen der türkischen Luftwaffe auf kurdische Gebiete nach.

Michael Theil, faz.net, 06.12.2024 (online)

Onlinefilm.org

Zitat der Woche
Gut zur Entgiftung des öffentlichen Diskurses wäre es, auch in den Beiträgen jener, die anders denken als man selbst, die klügsten Gedanken zu suchen, nicht die dümmsten. Man läuft natürlich dann Gefahr, am Ende nicht mehr uneingeschränkt Recht, sondern einen Denkprozess in Gang gesetzt zu haben.   Klaus Raab, MDR-Altpapier, 25.05.2020, (online)    
Out of Space
Auf seinem YouTube-Kanal „Ryan ToysReview“ testet der kleine Amerikaner Ryan seit März 2015 allerhand Spielzeug. Die Beschreibung des erfolgreichen Channels ist simpel: „Rezensionen für Kinderspiele von einem Kind! Folge Ryan dabei, wie er Spielzeug und Kinderspielzeug testet.“ Ryan hat 17 Millionen Abonnenten und verdient 22 Millionen Dollar im Jahr. Berliner Zeitung, 04.12.2018 (online)