Content-Moderation ist wohl einer der härtesten Jobs, den es in der Tech-Welt gibt. Vergleichbar vielleicht mit den Minenarbeitern und Kesselheizern während der Industrialisierung. Damit oben die Maschinen immer weiter laufen, muss unten geschuftet werden. Das gilt auch für soziale Netzwerke. Damit an der Oberfläche die Nutzer hübsch arrangierte Instagram-Fotos anschauen können und Werbepartner ein hygienisches Umfeld vorfinden, arbeiten Abermillionen an prekär Beschäftigten daran, den Großteil unerwünschter Inhalte auszublenden.
Das bleibt nicht ohne Folgen. Was früher, um in der Metapher zu bleiben, die Staublunge war, sind heute posttraumatische Belastungsstörungen, die entstehen, weil die Moderatoren all jene Bilder, Filme und Inhalte begutachten, die keinem Menschen zumutbar sind. Gewaltverbrechen, Kindesmisshandlung, Terrorpropaganda, abartige Pornografie. Im Sekundentakt müssen die Arbeiter in der Content-Mine sichten und darüber entscheiden, was gezeigt werden darf und was nicht. Es ist eine dreckige, aber notwendige Arbeit, die oft genug schlecht bezahlt wird – und nun davon bedroht ist, durch Automatisierung ersetzt zu werden.
Michael Moorstedt, sueddeutsche.de, 23.07.2025 (online)