1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Die harte Arbeit der Facebook-Reiniger

4. Mai 2025

Manche Bilder und Videos sind so grausam, dass man sie nie vergisst. In den Subunternehmen der sozialen Netzwerke wird deshalb manuell gefiltert. Doch die Mitarbeiter zahlen dafür einen hohen Preis. Und sie wehren sich.

Symbolbild | Die Plattform Tiktok bietet ein hohes Suchtpotenzial
Sogenannte Content-Moderatoren oder auch Cleaner sichten Fotos oder Videos auf den Social-Media-Plattformen.Bild: Tim Wegner/epd-bild/picture alliance

Folter, Kindesmissbrauch oder Mord: Die allermeisten Facebook- und Instagram-Nutzer bekommen solch verstörende Inhalte nicht zu Gesicht. Dafür sorgen sogenannte Content-Moderatoren oder auch Cleaner, die im Minutentakt die Bilder sichten und entsprechende Fotos oder Videos löschen. Häufig angestellt sind solche Moderatoren in Subunternehmen in Ländern des Globalen Südens. Es ist eine psychisch äußerst belastende Arbeit, die seit Jahren in der Kritik steht.

Meta, Eigentümer von Facebook und Instagram, und seine Subunternehmen in Afrika sehen sich deshalb immer wieder mit neuen Klagen konfrontiert. Laut der britischen Zeitung "Guardian" bereiten Anwälte derzeit

ein Gerichtsverfahren gegen Majorel vor, ein von Meta beauftragtes Unternehmen.

Fehlende psychologische Betreuung?

Die Moderatoren, die in dem Subunternehmen in Ghanas Hauptstadt Accra arbeiteten, erklärten im "Guardian", sie litten unter Depressionen, Angstzuständen, Schlaflosigkeit und Drogenmissbrauch. Nach ihrer Einschätzung sei dies eine direkte Folge ihrer Arbeit. Die angebotene psychologische Betreuung sei unzureichend gewesen, so der Vorwurf.

Teleperformance, Eigentümer von Majorel, wies dies nach Angaben von Medienberichten zurück. Demnach beschäftige das Unternehmen für seine Angestellten eigene Fachkräfte für psychische Gesundheit, die bei der örtlichen Aufsichtsbehörde registriert seien, heißt es beim "Guardian". Auf DW-Anfrage meldete sich Teleperfomance nicht. Der Rechtsfall wird nun von der britischen NGO Foxglove vorbereitet.

Entlassene Facebook-Moderatoren vor dem Arbeitsgericht in NairobiBild: Tony Karumba/AFP/Getty Images

Es ist nicht die erste Klage dieser Art: Vor rund zwei Jahren hatten ehemalige Facebook-Moderatoren in Kenias Hauptstadt Nairobi gegen Meta und die Zulieferfirmen Sama (Samasource) und Majorel geklagt. Sie hatten sich wegen ihrer Arbeitsbedingungen gewerkschaftlich engagiert und wurden aus ihrer Sicht unrechtmäßig entlassen und anschließend bei Majorel nicht wieder eingestellt, so die Nachrichtenagentur Reuters. 

Im September 2024 bestätigte ein Gericht, dass Meta in Kenia verklagt werden darf, seither laufen weitere Gerichts- und Mediationsverfahren. In den USA endete 2020 ein Sammelverfahren ehemaliger Facebook-Moderatoren mit einem Vergleich über etwa 52 Millionen US-Dollar Entschädigung für psychische Schäden.

Horror - viele Stunden am Tag

Für Rechtsanwältin Mercy Mutemi sind die Klagen ein "Weckruf" für die Tech-Konzerne, sich stärker mit den Menschenrechtsverletzungen auseinanderzusetzen, wie sie gegenüber Reuters sagte. Sie hatte die Kläger im Prozess in Kenia vertreten. 

Obwohl oftmals Verschwiegenheitsklauseln unterschrieben werden, erzählen mittlerweile einige ehemalige Mitarbeitende, wie sie die Arbeit empfunden haben. Laut der Plattform netzpolitik.org mussten die Moderatoren eines Subunternehmens demnach acht bis zehn Stunden am Tag verstörende Inhalte sichten, darunter auch Szenen von Tierquälerei und Hinrichtungen.

Ein ehemaliger Mitarbeiter eines anderen Subunternehmens schilderte: "Das System erlaubt es uns nicht, das zu überspringen ... wir müssen es uns mindestens 15 Sekunden lang ansehen." Im Gespräch mit dem "Guardian", der zusammen mit dem britischen Journalistenverein "Bureau of Investigative Journalism" recherchierte, äußerte er, dass er sich zunehmend "nicht mehr menschlich" fühlte.

Meta schafft Faktencheck bei Facebook und Instagram ab

02:19

This browser does not support the video element.

Eine andere ehemalige Mitarbeiterin, die sich mittlerweile bei dem Zusammenschluss African Tech Workers Rising engagiert, berichtet gegenüber dem "Guardian" von großem Zeitdruck. "Man konnte nicht aufhören, wenn man etwas Traumatisches sah. Man konnte nicht aufhören, um seine geistige Gesundheit zu schützen", erzählte sie. Mittlerweile hätte sich die Situation ihrer Einschätzung nach noch weiter verschlechtert. Mitarbeiter schauten sich die Videos in zwei- bis dreifacher Geschwindigkeit an, auf mehreren Bildschirmen gleichzeitig.

Auch die NGO Foxglove berichtet auf ihrer Webseite, dass Mitarbeiter nach ihrer Darstellung um Erlaubnis bitten mussten, um vom Bildschirmplatz aufstehen zu dürfen. Dies könne auch verweigert werden. Besonders schwierig sei die Moderation für Menschen aus Konfliktregionen, die stets befürchten müssen, Angehörige und Freunde auf dem grausamen Bildmaterial wieder zu erkennen. Ob diese Vorwürfe berechtigt sind, konnte die DW nicht prüfen.

Gegenüber der DW erklärte eine von Meta beauftragte Kommunikationsagentur, der US-Konzern habe vertragliche Vereinbarungen mit den Partnerfirmen getroffen. Diese sollten sicherstellen, dass Moderatoren nicht nur fachlich geschult werden, sondern auch rund um die Uhr Zugang zu professioneller Unterstützung und medizinischer Versorgung haben. Die Partnerfirmen seien verpflichtet, überdurchschnittliche Gehälter zu zahlen. Zudem respektiere man das Recht, sich gewerkschaftlich zu organisieren. 

Kenia und die Philippinen als beliebte Standorte

Dass viele Subunternehmen für die großen Sozialen Netzwerke in Entwicklungsländern angesiedelt sind, ist kein Zufall. Die Löhne sind in der Regel deutlich niedriger als in westlichen Ländern, der Arbeitsschutz geringer, die Jugendarbeitslosigkeit dafür hoch. Zudem kann durch die verschiedenen Zeitzonen eine Moderation rund um die Uhr gewährleistet werden.

"Große Tech-Konzerne lagern wichtige, aber belastende Arbeit gerne nach Afrika aus. Sie tun das in einer kolonialen und ausbeuterischen Art und Weise", sagte Anwältin Mercy Mutemi im Gespräch mit netzpolitik.org. Gegenüber der DW erklärte sie Ende 2023: "Facebook und Sama locken junge, begabte aber verletzliche, arglose junge Menschen aus Kenia und anderen afrikanischen Ländern an."

"Koloniale Art und Weise": Anwältin Mercy Mutemi im Dezember 2022 nach einem ersten Gerichtstermin Bild: YASUYOSHI CHIBA/AFP/Getty Images

Für die Länder selbst ist das sogenannte Business Process Outsourcing (BPO) - also wenn Unternehmen Teile ihrer Prozesse auslagern - auch ein lohnendes Geschäft. Im Frühjahr 2024 kündigte der kenianische Präsident William Ruto an, die Infrastruktur für entsprechende Ansiedlungen auszubauen. In den nächsten fünf Jahren will er so auf eine Million neue BPO-Jobs kommen.

Kenias Hauptstadt Nairobi gilt schon jetzt als aufstrebendes IT-Zentrum ("Silicon Savannah") mit einer jungen und gut ausgebildeten Bevölkerung, die über ausreichende Englischkenntnisse verfügt. Auch Länder wie Ruanda und Ghana positionieren sich als Tech-Standorte. Zu den großen Standorten gehören auch die Philippinen und Indien.

Künstliche Intelligenz ist nicht die alleine Lösung 

Wie sich die Arbeitsbedingungen künftig gestalten werden, lässt sich noch schwer absehen. Auch wenn vielfach schon Künstliche Intelligenz zum Einsatz kommt, wird sie nach Einschätzung von Experten die Arbeit von Menschen dennoch nicht komplett ersetzen können. Nicht immer werden zum Beispiel Folter und Missbrauch auch als solche von den Algorithmen erkannt. Auch sprachliche und kulturelle Besonderheiten bleiben ein Problem. 

Die einzige wirkliche Lösung bestehe deshalb darin, so Foxglove-Direktorin Martha Dark gegenüber dem "Guardian", in die Moderatoren zu investieren, die diese Arbeit bereits machten.

Den nächsten Abschnitt Mehr zum Thema überspringen