1. Home
  2. News
  3. CAISzeit
  4. Versteckte Regeln, sichtbare Folgen: Wer moderiert unsere Timeline?

CAISzeit #23

Versteckte Regeln, sichtbare Folgen: Wer moderiert unsere Timeline?

Täglich werden auf Social Media Milliarden Inhalte veröffentlicht – darunter auch Hassrede, Gewaltaufrufe und rassistische Äußerungen. Dr. Matthias Begenat spricht mit Anna Ricarda Luther, David Hartmann und Prof. Dr. Hendrik Heuer darüber, wie solche Inhalte erkannt, moderiert und mithilfe Künstlicher Intelligenz bewertet werden – und warum manche Beiträge gelöscht, andere aber online bleiben.

16. Juli 2025

Hasskommentare, Aufrufe zur Gewalt oder rassistische Äußerungen – täglich werden Milliarden Inhalte in sozialen Medien veröffentlicht, darunter auch problematische Äußerungen. Doch wie werden diese Inhalte erkannt und wie moderiert? Warum bleiben hasserfüllte Postings in vielen Fällen online, während scheinbar harmlose Postings gelöscht werden? Wer entscheidet darüber? Wie funktioniert die Moderation der Inhalte genau? Und welche Rolle spielt Künstliche Intelligenz dabei?

Gemeinsam mit den Forscher:innen Anna Ricarda Luther (Institut für Informationsmanagement Bremen, Universität Bremen), David Hartmann (Weizenbaum-Institut & TU Berlin) und Prof. Dr. Hendrik Heuer (CAIS, Forschungsprogramm „Design vertrauenswürdiger Künstlicher Intelligenz“) spricht Host Dr. Matthias Begenat über die Moderation der Inhalte auf Social-Media-Plattformen.

Ein besonderer Fokus liegt auf den sozialen Folgen. Hassrede bleibt nicht nur im digitalen Raum, sondern beeinflusst die Lebensrealität von Aktivist:innen, Lokalpolitiker:innen, Journalist:innen und engagierten Nutzer:innen. Wer regelmäßig angegriffen wird, zieht sich häufig zurück – mit direkten Auswirkungen auf politische Teilhabe und Meinungsvielfalt.

Trotz der Herausforderungen gibt es Entwicklungen, die Anlass zur Hoffnung geben. Die Forscher:innen sprechen über neue gesetzliche Regulierungen wie den Digital Services Act, fordern mehr Transparenz und Kontrolle sowie besseren Zugang zu Plattformdaten. Außerdem diskutieren sie zivilgesellschaftliche Initiativen, die sich für sichere digitale Räume starkmachen: Wie kann Moderation besser, fairer und wirksamer werden? Welche Verantwortung tragen Plattformen – und welche Rechte sollten Nutzer:innen haben?

Disclaimer:
In dieser Folge wird über hasserfüllte Sprache, beleidigende Begriffe und diskriminierende Konzepte gesprochen – u.a. zum Genozid in Myanmar und Tigray und über rassistische Äußerungen. Aus Transparenzgründen haben wir uns entschieden, diese Begriffe im Original wiederzugeben. Wenn Euch das belastet, überspringt gerne die entsprechenden Passagen.

  • 4:28 – 5:06: Genozid an den Rohingya in Myanmar
  • 5:08 – 6:09: Bürgerkrieg in Äthiopien 
  • 10:44 – 11:14: Geleakte Dokumente von Meta mit Angabe von beleidigenden Äußerungen
  • 38:30 – 38:50: Hass gegen Menschen mit Behinderung
  • 40:00 – 40:36: Beleidigungen gegen Muslim:innen

Service-Hinweis:
Betroffene von Hassrede können sich an HateAid wenden: https://hateaid.org/
beratung@hateaid.org
030 / 252 088 38 (Mo 10–13 Uhr | Do 15–18 Uhr)

Empfehlungen zum Thema:

Zu Gast:

David Hartmann ist wissenschaftlicher Mitarbeiter am Weizenbaum-Institut und Doktorand an der TU Berlin.

Anna Ricarda Luther ist wissenschaftliche Mitarbeiterin am Institut für Informationsmanagement Bremen GmbH und Doktorandin an der Universität Bremen. Außerdem ist sie assoziierte Forscherin am CAIS.

Prof. Dr. Hendrik Heuer ist Leiter des CAIS-Forschungsprogramms „Design vertrauenswürdiger Künstlicher Intelligenz“.

Weitere CAISzeit-Folgen