Im Mittelpunkt des Artikels steht ein experimentelles Tool, das durch eine veränderte Sortierung von Beiträgen im Feed parteipolitische Feindseligkeit messbar reduzieren konnte. Die Studie zeigt, dass bereits kleine algorithmische Anpassungen – ohne das Löschen oder Blockieren von Inhalten – deutliche Effekte auf die emotionalen Einstellungen von Nutzerinnen und Nutzern haben. Beiträge mit antidemokratischen oder stark polarisierenden Inhalten wurden im Feed lediglich nach unten verschoben. In der Folge nahm bei den Teilnehmenden die ablehnende Haltung gegenüber politisch Andersdenkenden ab, und zwar über Parteigrenzen hinweg.
Dr. Josephine Schmitt hebt in ihrer Einordnung hervor, dass die Ergebnisse robuste und teilweise überraschend starke Effekte auf die affektive Polarisierung zeigen. Die Studie verdeutliche, dass Feed-Sortierungen keineswegs neutral seien, sondern direkt auf Emotionen wirkten und damit politische Einstellungen beeinflussten. Gerade diese Erkenntnis sei zentral für die gesellschaftliche Debatte um Transparenz, Verantwortung und Gestaltbarkeit algorithmischer Systeme.
Zugleich weist Josephine Schmitt auf die Grenzen der Übertragbarkeit hin. Die Ergebnisse seien vor dem Hintergrund des US-amerikanischen Zwei-Parteien-Systems zu interpretieren und ließen sich nur eingeschränkt auf Länder wie Deutschland übertragen, in denen soziale Medien wie X eine geringere Rolle im politischen Alltag spielen.
Das Medienecho unterstreicht die Relevanz der CAIS-Forschung und -Expertise im Bereich digitaler Öffentlichkeit und politischer Kommunikation. Die Einordnung von Josephine Schmitt macht deutlich, wie stark selbst minimale algorithmische Entscheidungen demokratische Diskurse beeinflussen können – und wie wichtig eine informierte gesellschaftliche Auseinandersetzung mit der Macht von Plattformalgorithmen ist.