Hasskommentare, Aufrufe zur Gewalt oder rassistische Äußerungen – täglich werden Milliarden Inhalte in sozialen Medien veröffentlicht, darunter auch problematische Äußerungen. Doch wie werden diese Inhalte erkannt und wie moderiert? Warum bleiben hasserfüllte Postings in vielen Fällen online, während scheinbar harmlose Postings gelöscht werden? Wer entscheidet darüber? Wie funktioniert die Moderation der Inhalte genau? Und welche Rolle spielt Künstliche Intelligenz dabei?
Gemeinsam mit den Forscher:innen Anna Ricarda Luther (Institut für Informationsmanagement Bremen, Universität Bremen), David Hartmann (Weizenbaum-Institut & TU Berlin) und Prof. Dr. Hendrik Heuer (CAIS, Forschungsprogramm „Design vertrauenswürdiger Künstlicher Intelligenz“) spricht Host Dr. Matthias Begenat über die Moderation der Inhalte auf Social-Media-Plattformen.
Ein besonderer Fokus liegt auf den sozialen Folgen. Hassrede bleibt nicht nur im digitalen Raum, sondern beeinflusst die Lebensrealität von Aktivist:innen, Lokalpolitiker:innen, Journalist:innen und engagierten Nutzer:innen. Wer regelmäßig angegriffen wird, zieht sich häufig zurück – mit direkten Auswirkungen auf politische Teilhabe und Meinungsvielfalt.
Trotz der Herausforderungen gibt es Entwicklungen, die Anlass zur Hoffnung geben. Die Forscher:innen sprechen über neue gesetzliche Regulierungen wie den Digital Services Act, fordern mehr Transparenz und Kontrolle sowie besseren Zugang zu Plattformdaten. Außerdem diskutieren sie zivilgesellschaftliche Initiativen, die sich für sichere digitale Räume starkmachen: Wie kann Moderation besser, fairer und wirksamer werden? Welche Verantwortung tragen Plattformen – und welche Rechte sollten Nutzer:innen haben?
Disclaimer:
In dieser Folge wird über hasserfüllte Sprache, beleidigende Begriffe und diskriminierende Konzepte gesprochen – u.a. zum Genozid in Myanmar und Tigray und über rassistische Äußerungen. Aus Transparenzgründen haben wir uns entschieden, diese Begriffe im Original wiederzugeben. Wenn Euch das belastet, überspringt gerne die entsprechenden Passagen.
- 4:28 – 5:06: Genozid an den Rohingya in Myanmar
- 5:08 – 6:09: Bürgerkrieg in Äthiopien
- 10:44 – 11:14: Geleakte Dokumente von Meta mit Angabe von beleidigenden Äußerungen
- 38:30 – 38:50: Hass gegen Menschen mit Behinderung
- 40:00 – 40:36: Beleidigungen gegen Muslim:innen
Service-Hinweis:
Betroffene von Hassrede können sich an HateAid wenden: https://hateaid.org/
beratung@hateaid.org
030 / 252 088 38 (Mo 10–13 Uhr | Do 15–18 Uhr)
Empfehlungen zum Thema:
- Initiative Save Social
- Artikel “The Impossible Job: Inside Facebook’s Struggle to Moderate Two Billion People” von Jason Koebler über Mark Zuckerberg
- Zu wenig Moderation Tigray in Äthiopien
- Artikel von Nilay Patel in “The Verge”: “Welcome to hell Elon, you break it you buy it.”
- Meta Video: “More Speech, Fewer Mistakes”
- Artikel zu “Relaxed Hate Speech Rules”
- Artikel “From content moderation to visibility moderation: a case study of platform governance on TikTok”
- Beitrag von Hendrik Heuer, Anna Ricarda Luther und David Hartmann auf der re:publica 25
- Public Spaces Incubator/ARD
- Public Spaces Incubator/ZDF
- Digital Services Act
- Projekt “Data Workers Inquiry”
- “The Cleaners” (2018) – Dokumentarfilm
- “Careless People” von Sarah Wynn-Williams
- “Code & Vorurteil – Über Künstliche Intelligenz, Rassismus und Antisemitismus”
- “Empire of AI” von Karen Hao
