Die Unternehmen wissen, dass sie einen Shitstorm ernten, wenn das Modell diskriminierende Ergebnisse liefert. Also versuchen sie verzweifelt, es unter Kontrolle zu bekommen. Und so stellen sie eine Armee von Arbeiter:innen ein, die gewalttätige und unangemessene Inhalte kennzeichnen. Aber dazu müssen sie mit diesen Inhalten konfrontiert werden – und das ist sehr schädlich für ihre psychische Gesundheit. […]
Die Technologie muss ständig aktualisiert, verbessert und neu trainiert werden. Das heißt, selbst jetzt werten Menschen die Ergebnisse von ChatGPT aus. Dabei kann es sich um dieselben Personen handeln, die schon die Trainingsdaten etikettiert haben. Aber vor allem geht es hier um die unbezahlte Arbeit der Nutzer:innen. Jedes mal wenn man ChatGPT nutzt, hilft man dabei, das Modell zu perfektionieren. Das ist auch Arbeit, wird aber selten als solche anerkannt. […]
Ich schätze, die Rechenleistung macht etwa 80 Prozent der Kosten aus, die menschliche Arbeitskraft 20 Prozent. Und das Geld für die menschliche Arbeitskraft fließt zu 90 Prozent an die Ingenieur:innen im Silicon Valley, während Arbeiter:innen etwa in Venezuela oder Kenia fast nichts bekommen.
Milagros Miceli, netzpolitik.org, 17.3.2023 (online)