»Es verändert sich viel in der Arbeitswelt – und das häufig nicht zum Guten. In den vergangenen Jahren wurde viel diskutiert über Leiharbeit, Werkverträge oder befristete Beschäftigung. Immer wieder tauchen auch Berichte auf über die Arbeitswelt jenseits der in Berliner Cafés mit Apple-Geräten arbeitenden Kreativlinge. Vieles, um das es hier geht, nutzen wir alle, beispielsweise Google und Facebook. Aber auch in dieser anscheinend schönen neuen Glitzerwelt gibt es Drecksarbeit, digitale Drecksarbeit, um genau zu sein.« So begann ein kurzer Beitrag, der hier am 13. Mai 2015, also vor über acht Jahren, veröffentlicht wurde: Digitale Drecksarbeit hinter unserem Rücken. Wenn man so einen Begriff verwendet, dann muss es sich um wirklich üble Arbeit handeln. Google-Suchergebnisse bewerten, pornografische Inhalte bei Youtube herausfiltern, Hass-Postings bei Facebook löschen: Hinter den Kulissen der Internetgiganten machen viele Menschen digitale Drecksarbeit zum Hungerlohn. Auf der re:publica 2015 in Berlin war die Rede vom „Arbeitsstrich des 21. Jahrhunderts“. Den Begriff hatte Johannes Kleske bei seinem Vortrag „Mensch, Macht, Maschine” verwendet.
In den zurückliegenden Jahren ist immer wieder über dieses Schatten-Prekariat der digitalen Welt berichtet worden.
»Videos von Hinrichtungen, Hetze, Missbrauch: „Content-Moderatoren“ für YouTube müssen Verstörendes ertragen. Trotzdem werden sie schlecht bezahlt und laufen von einem befristeten Vertrag zum nächsten«, so beispielsweise Christian Wölbert 2019 in seinem Artikel Content-Prüfer für YouTube: Digitale Drecksarbeit. Dort wird von Alexander S. berichtet:
»Das Schlimmste für Alexander S. war ein Video, das zeigt, wie ein etwa ein Jahr altes Kind misshandelt und getötet wird. „Die Bilder bekomme ich mein Leben lang nicht mehr aus dem Kopf“, sagt er. Jederzeit könnten die Erinnerungen hochkommen, vor allem, wenn er irgendwo ein Kleinkind sehe. Es gehört zu seinem Job, solche Videos anzuschauen. S. arbeitet in Hamburg bei dem IT-Dienstleister Cognizant als „Content-Moderator“ für Googles Videoplattform YouTube. Das heißt: Er und seine Kollegen sehen täglich Volksverhetzung, Tierquälerei, Enthauptungen. Sie sperren solche Inhalte, damit möglichst wenige andere Menschen sie zu Gesicht bekommen. Sie erledigen für YouTube die Drecksarbeit.«
Alexander S.: „Man müsste einen sicheren Arbeitsplatz haben, um den Content wenigstens einigermaßen verarbeiten zu können“, sagt er. Stattdessen gebe es strenge Leistungskontrollen, niedrige Gehälter, befristete Verträge, unklare Zukunftsaussichten.«
Was wurde über die Arbeitgeber-Seite berichtet? »Cognizant ist einer der größten IT-Dienstleister der Welt. Die Zentrale befindet sich in den USA; die meisten der rund 280.000 Angestellten arbeiten jedoch in Indien. Die Content-Prüfung am Standort Hamburg beschreibt der Konzern in einer Stellenanzeige: Es gehe um die „Social Media Analyse für die meist geliebte Videoplattform der Welt“ und um das „Analysieren sensibler Inhalte, die manchmal sehr graphisch oder verstörend sein können“. In Aussicht gestellt werden ein „attraktives Vergütungsmodell (über Mindestlohn)“ und ein „befristeter Arbeitsvertrag mit Option auf Verlängerung“.« Schon 2019 hat das Unternehmen angekündigt, sich langfristig weltweit aus dem Geschäft mit Content-Prüfung zurückzuziehen.
In dem damaligen Bericht wurde bereits auf Indien hingewiesen, wo die meisten „Content-Prüfer“ arbeiten. An dieser Stelle wären weitere Länder zu nennen, in denen das digitale Prekariat die Drecksarbeit für die großen Konzerne erledigen muss. »Nicht Algorithmen löschen bei Facebook gewalttätige, pornografische oder politische verbotene Bilder. Sondern diese „digitale Drecksarbeit“ erledigen echte Menschen. Zum Beispiel auf den Philippinen«, kann man einem Bericht von Deutschlandfunk Kultur aus dem Jahr 2017 entnehmen, in dem es um das Buch „Digitale Drecksarbeit. Wie Facebook & Co. uns von dem Bösen erlösen“ von Moritz Riesewieck (2017) ging. Der Autor und Theaterregisseur Moritz Riesewieck hatte sich auf die Suche nach den digitalen Müllmännern und –Frauen begeben und war in der philippinischen Hauptstadt Manila fündig geworden.
»„Sie sitzen täglich acht bis neun Stunden in so Arbeitsboxen und klicken ein Bild nach dem anderen durch, haben pro Bild ein paar Sekunden Zeit, bei Videos sind es ein paar Minuten“, berichtete Riesewieck … über die sogenannten Content-Moderatoren. Jedes Video müsse komplett angeschaut werden: „Weil es sein könnte, dass zum Beispiel eine Terrororganisation innerhalb diese Videos irgendwo etwas untergebracht hat. Und wenn sie das übersehen, dann sind sie ruckzuck ihren Job los. Das heißt, sie müssen sich tatsächlich so ein Enthauptungsvideo … von vorne bis hinten anschauen.“
Das sei für die Menschen schwer zu verkraften, aber ihnen bleibe keine Wahl, so Riesewieck. „Denn der Job ist mit ein bis drei Dollar die Stunde immer noch besser bezahlt als so manch anderer Drecksjob, den man dort in einem Entwicklungsland – Philippinen – machen kann.“ Die Content-Moderatoren hätten auch eine gewisse soziale Absicherung: „Sowas wie eine betriebliche Krankenversicherung und dergleichen.“«
Zurück in die Gegenwart: Risikozone Bundestag?
Seit vielen Jahren ist das also bekannt und immer wieder ist darüber auch berichtet worden. Auch in diesen Tagen wurde das erneut für einen Moment ins Scheinwerferlicht gerückt, auch wenn das schnell wieder ausgeknipst wird: Extremjob Contentmoderator: Im Bundestag angehört – und dann vom Arbeitgeber abgestraft?, so hat Christoph Höland seinen Artikel überschrieben: »Fünf Jahre lang hat Cengiz Haksöz Gewalt und Pornografie von Plattformen des Meta-Konzerns ferngehalten – doch darüber zu sprechen führt offenbar zu Problemen: Der Contentmoderator sei nach einer Anhörung im Bundestag abgestraft worden, kritisiert die Gewerkschaft Verdi. „Ungeheuerlich“ sei das, findet auch die Ausschussvorsitzende.«
Der Job der sogenannten Contenmoderatoren »ist psychisch enorm belastend, wie einer von ihnen, Cengiz Haksöz, unlängst im Digitalauschuss des Bundestags berichtet hat. Keine zwei Wochen später wurde er nach Gewerkschaftsangaben von seinem Arbeitgeber freigestellt – was … für heftige Kritik sorgte.«
Der Mann hatte den Abgeordneten berichtet: »Im Bundestagsausschuss hatte Haksöz geschildert, ein gebrochener Mensch zu sein: Im Auftrag der Facebook-Mutter Meta sichtete er beim Dienstleister Telus International in Essen fünf Jahre lang Material, das unter anderem Gewalt gezeigt habe. Auch Kolleginnen und Kollegen hätten wegen ihrer Arbeit massive psychische Probleme bekommen, berichtete er weiter – und hinterließ, so schildern es Beteiligte, bei den Ausschussmitgliedern einen bleibenden Eindruck.« Die Anhörung kann man in der Mediathek des Bundestags als Video anschauen.
Eindruck hat das offensichtlich auch an anderer Stelle gemacht, wie die Gewerkschaft Verdi berichtet: »Haksöz sei von seinem Arbeitgeber freigestellt worden und dürfe den Betrieb nicht mehr betreten. Verdi-Vorstand Christoph Schmitz kritisierte das scharf. Er warf dem Unternehmen „Union-Busting“, also die Be- oder Verhinderung von Gewerkschaftsarbeit, vor. Haksöz hatte sich für die Gründung eines Betriebsrats eingesetzt.«
„Dass die Stellungnahme in einer Ausschusssitzung des Deutschen Bundestages zu beruflichen Nachteilen führt, ist ungeheuerlich“, so die die Vorsitzende des Digitalausschusses, Tabea Rößner (Grüne).
»Sie betonte, der Gesetzgeber mache den sozialen Netzwerken Auflagen, die Contentmoderation erfordern, weshalb man auch Auskünfte vom entsprechenden Personal brauche. „Wer Erkenntnisgewinn und Beratungen des höchsten Verfassungsorgans Deutschlands behindert, missachtet die Demokratie“, sagte Rößner angesichts des Vorgehens gegen Haksöz. Akzeptabel sei das nicht, dem Unternehmen Telus International bot Rößner aber Gespräche an.
Die stellvertretende Ausschussvorsitzende Anna Kassautzki (SPD) sieht auch die Facebook-Mutter Meta gefordert: „Ich erwarte von den großen Plattformen, dass sie selbst die Verantwortung über die Contentmoderation übernehmen und dies nicht länger in Subunternehmen auslagern“, sagte Kassautzki. „Ohne Haksöz und seine Kolleginnen und Kollegen, die unter prekären Bedingungen arbeiten, könnten wir alle Social Media nicht so nutzen, wie wir es tun“, betonte die SPD-Politikerin.«
Schätzungen zufolge braucht es weltweit Hunderttausende Beschäftigte, die händisch für Ordnung bei Facebook, Instagram, Tiktok und Co. sorgen. Bei den milliardenschweren Konzernen sind diese selten direkt angestellt. Unter ihrer Arbeit leiden sie oft, wie die NGOs Superrr Lab und Foxglove zuletzt kritisierten. Bei Foxglove findet man beispielsweise diese Meldung vom 6. Juni 2023: Huge ruling in Kenyan court threatens global model of outsourced content moderation – and says that Facebook is the “true employer” of its key safety workers: »Judge Byram Ongaya ruled that Facebook is the “true employer” of its content moderators in Kenya – not Sama, its outsourcing company. That means Facebook is legally responsible for these workers. The ruling is – we think – the first of its kind in the world. And it is one with explosive potential consequences.«
Über die Anhörung „Arbeitsbedingungen für Content Moderatorinnen und Moderatoren“ des Digitalausschusses des Deutschen Bundestages am 14. Juni 2023 hat auch Rita Schuhmacher unter der bezeichnenden Überschrift Content Moderatoren: Zum Abschied wünschen sie sich „Gute Besserung” berichtet: „Content Moderator zu sein ist so, als würde man im Amazon-Lager und auf einer Giftmüllhalde zugleich arbeiten“, erklärt Daniel Motaung, Whistleblower und ehemaliger Content Moderator aus Kenia. Er war live aus Afrika zugeschaltet zur Anhörung. Betroffene »berichten über lebenslange gesundheitliche Folgen der Arbeit, wie posttraumatische Belastungsstörungen und Medikamentenmissbrauch. Die fehlende angemessene Unterstützung für die mentale Gesundheit, insbesondere in den Outsourcing-Unternehmen, verstärkt diese Belastung.«
Zu den Forderungen, die aus den bestehenden Verhältnissen abgeleitet werden können: »In Bezug auf politische Forderungen wurde während der Anhörung ein Stopp der Outsourcing-Mentalität gefordert. Die Arbeitsbedingungen in den ausgelagerten Unternehmen sind deutlich schlechter als bei Beschäftigten mit direkten Arbeitsverträgen wie beispielsweise bei TikTok Germany. Die Social-Media-Konzerne sollten stärker in die Verantwortung genommen werden, da sie teilweise den Outsourcing-Unternehmen die sehr schlechten Arbeitsbedingungen, hohe und stressige Arbeitsanforderungen, wenig Pausen und Leistungskontrollen über Performance Reviews vorgeben, ohne selbst dafür einzustehen. Die Anerkennung des Berufs und seiner Belastungen sowie das Recht, grundsätzlich über die Arbeitsbedingungen sprechen zu dürfen, werden ebenfalls als wichtige Forderungen an die Politik genannt.«
Apropos TikTok (in Deutschland)
Im Heft 2/2023 des gewerkschaftlichen Magazins „Mitbestimmung“ berichtet Kay Meiners unter der Überschrift Digitale Drecksarbeit: »Videoplattformen wie TikTok gibt es nur, weil Content-Moderatoren sie von illegalen Inhalten frei halten – eine belastende Arbeit. Bei TikTok in Berlin hat die Belegschaft jetzt einen Betriebsrat gegründet.«
Die Videoplattform TikTok des chinesischen Konzerns ByteDance hat in Berlin im Spreequartier ihren Sitz – zehn Minuten zu Fuß von der Verdi-Zentrale in der Hauptstadt entfernt. Bei TikTok gelten, wie bei allen Social-Media-Konzernen, Gewerkschaften als uncool; das Management hätte gerne ohne Betriebsrat weitergemacht – aber zwei Jahre lang ist daran gearbeitet worden, dort einen Betriebsrat zu gründen. Zur TikTok-Belegschaft in Berlin gehören 500 Beschäftigte. Und auch hier: Weil ein guter Teil des hochgeladenen Materials illegal ist oder gegen Richtlinien verstößt, müssen Content-Moderatoren jedes Video prüfen.
Einen Betriebsrat gibt es mittlerweile. Im Juli 2022 wurde mit Hilfe der Gewerkschaft Verdi ein Wahlvorstand für die Betriebsratswahl gewählt. »Das Management war anfangs nicht glücklich über die Bestrebungen, einen Betriebsrat zu gründen. Seit Verdi an Bord ist … habe das Unternehmen allerdings „eine 180-Grad- Wende vollzogen und sogar mehr gemacht, als gesetzlich vorgeschrieben ist“. Am Ende wurden alle Beschäftigten ausdrücklich zur Wahl aufgerufen. Aus der Führungsebene heraus gab es Unterstützung für die Wahl.«
»Die Mitglieder des elfköpfigen Betriebsratsgremiums, das die gesamte Berliner Belegschaft vertritt, müssen lernen, Interessen innerhalb der Belegschaft auszubalancieren und ihre Leute gegenüber dem Management zu vertreten.«
Wobei man sich das gar nicht so einfach vorstellen darf – „das Management“. TikTok ist ein chinesisches Unternehmen, da gibt es das Management in Schanghai. Aber: Der Berliner Betriebsrat hat direkt mit der Konzernzentrale in Schanghai gar nichts zu tun. Seine wichtigsten Kontaktpersonen beim Management sitzen – im irischen Dublin. Die haben sich zwischenzeitlich einen deutschen Anwalt organisiert, der ihnen helfen soll, so was wie das deutsche Betriebsverfassungsgesetz zu verstehen
Die Gewerkschaft Verdi hat darüber hinaus im März 2023 eine bislang einzigartige Veranstaltung organisiert, den Content Moderators Summit, zusammen mit drei NGOs, die sich um die Moderatoren kümmern: Foxglove aus London, Aspiration aus den USA und Superrr Lab aus Berlin. Das Ziel: die Beschäftigten untereinander ins Gespräch zu bringen und ein Problembewusstsein für das neue Berufsbild zu schaffen.
»Längst wird versucht, einen Teil der Arbeit der Moderatoren an Maschinen zu delegieren. Für die Algorithmen, die den frischen Content auf Mediaplattformen wie TikTok sichten, sind Grausamkeiten oder Gesetzesverstöße nur Daten, seelenlos wie sie selbst. Doch die Algorithmen sind nicht gut genug. Sie verstehen nicht, was sie sehen. „Der Algorithmus trifft die Vorauswahl – die Beurteilung müssen Menschen übernehmen“, sagt Hikmat El-Hammouri. Nur ein Mensch könne sagen, was wirklich zu sehen ist: eine Puppe, ein echter Mensch – oder schlimmstenfalls ein Kind, das missbraucht wird.«
In der Branche gibt es eine Zweiklassengesellschaft. Auf der einen Seite Leute, die direkt bei den großen Konzernen arbeiten. „Die sind noch eher gut dran“. Beispiel: »Bei TikTok werden Erholungspausen strikt eingehalten, und es gibt eine psychologische Hotline, die rund um die Uhr zur Verfügung steht.« Aber bei kleineren Unternehmen, in denen outgesourcte Content-Moderatoren für große Konzerne arbeiten, sind die Bedingungen schlechter. Viel schlechter. Und in vielen armen Ländern eine Katastrophe.