ARD und ZDF sind an der heute präsentierten Studie „News Integrity in AI Assistants“ beteiligt, die unter Federführung der BBC erstellt wurde. Die Antworten von KI-Assistenten zu nachrichtlichen Inhalten sind der Studie zufolge sehr anfällig für Fehler. Die Sender suchen den Dialog mit den Plattformen. […]
Laut der Studie wiesen 45 Prozent aller KI-Antworten einen erheblichen Fehler auf. 31 Prozent der Antworten zeigten gravierende Probleme bei den Quellenangaben. 20 Prozent enthielten deutliche Ungenauigkeiten, Halluzinationen oder veraltete Informationen. […]
Das Forschungsteam hat in einem weiteren Schritt ein „Toolkit zur Genauigkeit bei KI-Assistenten“ veröffentlicht. Es enthält Vorschläge an die KI-Anbieter zur Verbesserung der KI-Antworten und zur Förderung der Medienkompetenz bei Nutzerinnen und Nutzern. […]
In der Studie wurden über 3.000 KI-Antworten der KI-Assistenten ChatGPT, Copilot, Gemini und Perplexity von Journalistinnen und Journalisten anhand von Kriterien wie Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie Bereitstellung von Kontext, geprüft.
Frank Heine, Blickpunkt:Film, 22.10.2025 (online)

