Der Bogen von unserem Auftrag bis hin zu Daten-Pipelines und den Algorithmen ist semantisch und ganz praktisch sehr weit gespannt. Wir denken, dass uns neben dem direkten Austausch mit unseren Nutzer*innen dabei spezifische Metriken helfen, öffentlich-rechtliche Werte messbar zu machen. Da geht es dann neben Reichweite und Sehvolumen vor allem um inhaltliche Diversität, aber auch, auf Ebene der einzelnen Nutzer*innen, um Größen wie Serendipität, also die Möglichkeit, algorithmisch unterstützt Nutzer*innen neue Themen und Bereiche zu eröffnen. Das macht für mich öffentlich-rechtliche Algorithmik aus: Nutzer*innen in ihren Nutzungsbedürfnissen und persönlichen Interessen ernst nehmen, Vielfalt anbieten, anregend sein und neue Themen eröffnen. …
Generell glaube ich, dass in der öffentlichen Diskussion häufig auf Algorithmen und Software und zu wenig auf die Prozessierung der Daten fokussiert wird. Gerade hier entstehen aber leicht Probleme mit systematischen Verzerrungen, die in den Daten stecken. …
Ich sehe hier drei Herausforderungen: Erstens, die konzise Übersetzung des öffentlich-rechtlichen Auftrags in Metriken und Algorithmen, in Abstimmung mit allen Gremien und Stakeholdern. Zweitens, die optimale Verbindung von redaktioneller, algorithmischer und nutzer-gesteuerter Kuration. Denn Algorithmen sind immer nur ein Teil, ein Werkzeug in der Distribution. Drittens, die Versorgung der Algorithmen mit den notwendigen Metadaten, etwa zu Geschlechterverteilung bei Mitwirkenden etc. Andreas Grün, Technik-Chef der Hauptredaktion Digitale Medien des ZDF, netzpolitik.org, 15.5.2022 (online)
Kommentar verfassen