Ein vertrautes Ritual der Branche: Der Text wurde offline genommen, der Autor entschuldigte sich mit dem lapidaren Hinweis, interne Leitlinien zum Umgang mit KI seien nicht eingehalten worden. Die Botschaft dahinter: Das Plagiat war ein individueller Regelbruch, ein Einzelfall.
Doch genau diese Einordnung greift zu kurz. Denn sie wirkt beruhigend – und lenkt vom eigentlichen Problem ab. Der Fall ist kein Ausrutscher, kein reines Versehen, sondern Symptom einer neuen Produktionsideologie im digitalen Journalismus. Er zeigt exemplarisch, wie ökonomischer Druck, Reichweitenlogik, ungenaue KI-Leitlinien und der allzu routinierte Einsatz von Sprachmodellen ineinandergreifen – und wie sich dabei fatale redaktionelle Praktiken zu normalisieren drohen.
Es geht dabei um etwas, was ich die „Psychologie der KI“ nenne – und damit um Fragen wie jene, warum ein fragwürdiger KI-Einsatz wie die abgeschriebene „Guardian“-Reportage in einer Redaktion selbst keinen Widerspruch erzeugt. Warum also Abschreiben als „Kuratieren“ durchgeht – solange es effizient, sprachlich glatt und redaktionell anschlussfähig ist.
An diesem Punkt sollte die eigentliche Debatte über KI im Journalismus ansetzen: Nicht bei der Frage, was KI im Einzelnen darf oder nicht darf (auch wenn es natürlich Leitlinien und Regeln braucht). Sondern bei der Frage, was sie mit dem Journalismus – und den Journalist:innen – macht. Die Gefahr liegt dabei aus meiner Sicht in einem schleichenden Übergang von menschlicher Urteilskraft zu maschineller Routine im Denken.
Stephan Weichert, Übermedien, 24.02.2026 (online)

