1. Home
  2. News
  3. Aktuelles aus dem Institut
  4. Unterstützung für die Belegschaft von TikToks Trust & Safety-Abteilung

CAIS-Statement

Unterstützung für die Belegschaft von TikToks Trust & Safety-Abteilung

Im Zuge des angekündigten Stellenabbaus bei TikTok Germany und des für den 28. Juli geplanten Streiks der Berliner Belegschaft haben wir ein Statement verfasst, das auf der heutigen Streikversammlung verlesen werden soll. Es stützt sich auf aktuelle Forschung zur automatisierten Inhaltsmoderation und unterstreicht, warum menschliche Expertise in diesem Bereich unverzichtbar bleibt.

28. Juli 2025

Am 23. Juli 2025 traten Beschäftigte der Social-Media-Plattform TikTok in Berlin in den Streik. Hintergrund ist die angekündigte Auflösung der gesamten Trust-and-Safety-Abteilung sowie Teilen der Live-Operations am Berliner Standort. Rund 150 qualifizierte Fachkräfte sollen durch KI-Systeme und externe Dienstleister ersetzt werden.

Aus Sicht der Beschäftigten und der Gewerkschaft ver.di steht dabei nicht nur die Frage nach fairen Arbeitsbedingungen im Raum, sondern auch die Qualität der Inhaltsmoderation auf der Plattform. Eine Frage mit der sich auch das Center for Advanced Internet Studies (CAIS) in einer gemeinsamen Studie mit dem Weizenbaum-Institut und der Hertie School auseinandergesetzt hat. Die Forschenden fanden heraus, dass KI-Systeme zur Inhaltskontrolle häufig erlaubte Beiträge fälschlicherweise löschen und Hassrede, besonders gegen benachteiligte Gruppen, oft nicht richtig erkennen. KI-Moderation allein reiche nicht aus und kann ohne sorgfältige Einstellung, Offenlegung und menschliche Unterstützung nicht zuverlässig funktionieren.

Im Vorfeld des für den 28. Juli 2025 angekündigten Streiks haben wir – in Absprache mit ver.di – eine Stellungnahme eingereicht, die bei der heutigen Streikversammlung verlesen werden soll:

Dear Workers at TikTok Germany,

When we learned about TikTok’s plans to dissolve the entire German Trust and Safety department, as well as parts of the so-called Live Operations team, we reached out to ver.di to express our solidarity. We firmly believe that your work is invaluable and cannot be replaced.

In a recent study conducted by the Weizenbaum Institute, the Hertie School, and the Center for Advanced Internet Studies (CAIS), we systematically analyzed five million decisions made by widely used commercial content moderation APIs (Application Programming Interface). Our findings confirmed what you already know: AI systems lack the contextual understanding needed to reliably detect hate speech and disinformation.

Our research shows that AI tools consistently under-moderate implicit hate speech, while over-moderating counter-speech, reclaimed slurs, and content related to Black, LGBTQIA+, Jewish, and Muslim communities.

Our study highlights a simple truth: content moderation cannot be fully automated. The work you do is critical. It was critical yesterday, it is critical today, and it will remain critical tomorrow.

David Hartmann, Weizenbaum-Institut, Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung
Prof. Dr. Hendrik Heuer, Center for Advanced Internet Studies, Bergische Universität Wuppertal und Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung
Rainer Rehak, Weizenbaum-Institut, Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung