Über die Qualität der KI-Berichterstattung hierzulande lässt sich sicherlich streiten. Meist überwiegt die Faszination für das Neue, das Unerklärliche, das Beängstigende. Die analytische Tiefe, der politische und technische Sachverstand bleiben in der Tat oft marginal. Doch eine KI-Sendung von KI erstellen zu lassen, ist so ziemlich das Gegenteil von einer Lösung für dieses Problem – und zeugt vor allem von journalistischer Ratlosigkeit.
Nicht nur, dass die KI in den seltensten Fällen etwas wirklich Originelles zustande bringt. Das zeigen auch die Inhalte der Welt-Sendung, die mit Berichten über eine Messe in Shanghai, eine Initiative in den USA, einer Umfrage in Deutschland, einem Gesetz der EU und einem Social-Media-Trend nun wirklich den Technikjournalismus nicht neu erfindet. Doch ist in KI-Modellen – aus guten Gründen – oft eine politische Sperre eingebaut, die eine Einordnung der berichteten Fakten verhindert.
Viele Nutzer werden es beim Experimentieren mit ChatGPT und Co. schon erlebt haben: Aussagen über politische Parteien, Beleidigungen, sexualisierte Äußerungen, politisch Unkorrektes ist der Software kaum zu entlocken. Das ist im Alltag auch meistens sinnvoll. Für den Journalismus ist es allerdings fatal. Eine Berichterstattung, die von KI gestaltet wird, kann kaum mehr als die Wiedergabe von Pressemitteilungen. Sie hinterfragt nicht, gibt ohne menschliche Anweisung keine Einordnung – Analyse ist Fehlanzeige.
Jana Ballweber, meedia.de, 01.08.2025 (online)

