Zitiert: Wenn Chatbots halluzinieren

Auch der Aufstieg der KI-Chatbots wirft Fragen auf. Im Mai stellten wir fest, dass die großen Chatbots Falschinformationen zum Wahlprozess verbreiteten. Ein Extrembeispiel: Microsofts „Copilot“ erklärte, wie man die Wahlen anfechten könne, übertrug jedoch schlicht das Verfahren der Wahlanfechtung von Betriebsräten in Firmen auf die Europawahl.

Dies verdeutlicht das bekannte „Halluzinationsproblem“: Sprachmodelle generieren Texte, die detailliert und überzeugend klingen, aber falsch sind. Google trainierte sein Modell Gemini aufgrund unseres Berichts um. Es verweist jetzt auf die normale Suchfunktion, anstatt unzuverlässige Antworten zu generieren.

Michael Meyer-Resende, faz.net, 06.07.2024 (online)

Onlinefilm.org

Zitat der Woche
Gut zur Entgiftung des öffentlichen Diskurses wäre es, auch in den Beiträgen jener, die anders denken als man selbst, die klügsten Gedanken zu suchen, nicht die dümmsten. Man läuft natürlich dann Gefahr, am Ende nicht mehr uneingeschränkt Recht, sondern einen Denkprozess in Gang gesetzt zu haben.   Klaus Raab, MDR-Altpapier, 25.05.2020, (online)    
Out of Space
Auf seinem YouTube-Kanal „Ryan ToysReview“ testet der kleine Amerikaner Ryan seit März 2015 allerhand Spielzeug. Die Beschreibung des erfolgreichen Channels ist simpel: „Rezensionen für Kinderspiele von einem Kind! Folge Ryan dabei, wie er Spielzeug und Kinderspielzeug testet.“ Ryan hat 17 Millionen Abonnenten und verdient 22 Millionen Dollar im Jahr. Berliner Zeitung, 04.12.2018 (online)