Forschungsprogramm: Design vertrauenswürdiger Künstlicher Intelligenz

Im Rahmen des Forschungsprogramms werden Prinzipien einer vertrauenswürdigen Künstlichen Intelligenz erarbeitet, technisch realisiert und gemeinsam mit Nutzer:innen in praktischen Anwendungsfeldern erprobt. Ein besonderer Fokus liegt dabei auf Sozialen Medien und auf der Frage, wie sie verbessert werden können.

Vertrauen in KI durch Verständnis
Vertrauen in KI durch Mitgestaltung
Das Forschungsprogramm steht in der Tradition der partizipativen und nutzerzentrierten Softwareentwicklung und erweitert diese mit einem Fokus auf Künstliche Intelligenz und Maschinelles Lernen. Die partizipative Softwareentwicklung bietet zahlreiche Methoden, um Nutzer:innen aktiv in die Softwareentwicklung einzubeziehen. Unser Ziel ist es, diese Methoden im Hinblick auf Künstliche Intelligenz und Maschinelles Lernen als eine neue Art der Co-Creation weiterzuentwickeln.
Ein Bereich, in dem das Forschungsprogramm Methoden der Mensch-KI-Interaktion erforschen wird, sind soziale Medien. Dieser Anwendungskontext eignet sich besonders gut, da KI-Systeme auf Plattformen wie Facebook, YouTube, TikTok, Instagram und Twitter eine zentrale Rolle spielen. Bis zu 70 % der auf YouTube angesehenen Videos wurden von einem KI-System ausgewählt. Die Forschung zur Human-AI Interaction ist gesellschaftlich relevant, da die Nutzer:innen in der Regel keine Kontrolle über KI-Systeme haben und oft nichts von der Existenz der Systeme wissen.
Vertrauen in KI durch Kontrolle
Prof. Dr. Hendrik Heuer
Direkt zu …
Forschungsbereiche
Der Forschungsschwerpunkt zielt darauf ab, das Verständnis der Nutzer:innen von KI-Systemen zu messen und zu analysieren (User Beliefs, Folk Theories). Wir erweitern Vorarbeiten über das Verständnis von Nutzer:innen von KI-Systemen, insbesondere Videoempfehlungssystemen, die auf maschinellem Lernen basieren. Ein besonderer Fokus liegt auf der Transparenz und Erklärbarkeit von KI-Systemen.
In diesem Forschungsschwerpunkt werden Methoden zur Kontrolle der Ausgabe von ML-basierten Systemen durch systematische Audits entwickelt. Eine wichtige Motivation ist das Verhindern von Diskriminierung. Der Schwerpunkt ist durch Vorarbeiten zur Online-Radikalisierung auf YouTube motiviert.
Wir beschäftigen uns zudem mit der Entwicklung von Methoden zur umfassenden Einbeziehung von Nutzer:innen in die Gestaltung von KI-Systemen. Unser Fokus auf eine tiefe Einbindung der Nutzer:innen beruht auf Vorarbeiten wie einer interdisziplinären Zusammenarbeit mit Sozialwissenschaftler:innen und einer umfangreichen Literaturübersicht über die verschiedenen Ansätze zur Einbindung der Nutzer:innen. Der Schwerpunkt steht im Kontext der Demokratisierung von maschinellen Lernverfahren.
Aktuelles
Warum Desinformation ein Problem bleibt – und was wir trotzdem dagegen tun können
Am Freitag, den 16. Mai 2025, ist CAIS-Forscher Prof. Hendrik Heuer auf der Bergischen Expo zu Gast. In einem Kurzimpuls spricht er über die Herausforderungen...
CAIS auf der re:publica 2025: Desinformation verstehen, Content-Moderation reflektieren
Forschende des CAIS nehmen an Europas führender Konferenz für digitale Gesellschaft teil – der re:publica 2025. Im Fokus stehen digitales Vertrauen, Plattformverantwortung und algorithmische Gerechtigkeit.
Balancing Realism and Trust: AI Avatars in Science Communication
KI-Avatare werden zunehmend in der Wissenschaftskommunikation eingesetzt – aber was macht sie vertrauenswürdig? Eine aktuelle Studie von Jasmin Baake, Dr. Josephine B. Schmitt und Prof....
CAIS-Forschende auf der CHI 2025 in Japan
Prof. Dr. Hendrik Heuer und sein Team aus dem CAIS-Forschungsprogramm „Design vertrauenswürdiger Künstlicher Intelligenz“ sind vom 26. April bis 1. Mai 2025 auf der ACM...
Pre-CHI 2025 in Siegen
Forschende vom CAIS-Forschungsprogramm „Design vertrauenswürdiger Künstlicher Intelligenz“ nehmen vom 2. bis 4. April 2025 in Siegen an der Pre-CHI 2025 teil.
Empfehlungen für ein unabhängiges und wirksames Desinformationsmonitoring im digitalen Raum
Das CAIS unterstützt den offenen Brief der Bertelsmann Stiftung, des CeMAS, von Democracy Reporting International und ISD Germany mit Empfehlungen an die neue Bundesregierung für...
Vorträge bei 70. Jahrestagung der DGPuK
Forschende des CAIS sind bei der diesjährigen Jahrestagung der DGPuK mit zwei Vorträgen vertreten.
Der Bogen von der Technik zum Menschen
Hendrik Heuer spricht am 25. Februar 2025 bei der Paneldiskussion „Der Bogen von der Technik zum Menschen“ an der Bergischen Universität Wuppertal.
Hendrik Heuer als Sachverständiger in NRW-Enquetekommission zu Künstlicher Intelligenz berufen
Hendrik Heuer wurde in die Enquetekommission IV „Künstliche Intelligenz – Für einen smarten Staat in der digitalisierten Gesellschaft“ des NRW-Landtags berufen.
Reenvisioning Interaction for the Age of Human-Centered Artificial Intelligence
Am 10. Februar 2025 hält Prof. Hendrik Heuer auf Einladung von Prof. Juliane Jarke einen Vortrag an der Universität Graz über Human-Centered Artificial Intelligence.
Maßnahmen gegen Desinformation im Netz
Für das ARD-Mittagsmagazin haben wir ein Statement zum Thema Desinformation im Netz verfasst, das dort in einem Beitrag zum Thema „Fake-News im Wahlkampf – Reale...
AI Ethics Unwrapped: Die Rolle ethischer Prinzipien in der KI-Entwicklung
Der Artikel „AI Ethics Unwrapped: An Empirical Investigation of Ethical Principles in Collaborative Ideation Processes“ wurde 2024 veröffentlicht und analysiert ethische Prinzipien im KI-Designprozess von...
Von Augustus bis Trump – Warum Desinformation ein Problem bleibt und was wir trotzdem dagegen tun können
Josephine B. Schmitt und Hendrik Heuer halten am 29. Dezember 2024 beim 38. Chaos Communication Congress des Chaos Computer Club.
Werkstattgespräch: „Ein ZDF für alle“
Am 27. November 2024 nahm Hendrik Heuer auf Einladung des ZDF-Intendanten Dr. Norbert Himmler am Werkstattgespräch „Ein ZDF für alle“ im ZDF-Sendezentrum in Mainz teil.
6 Kriterien zur Einschätzung von Webseiten: Studie von Hendrik Heuer und Elena L. Glassman
Prof. Dr. Hendrik Heuer vom Center for Advanced Internet Studies (CAIS) und Elena L. Glassman von der Harvard University präsentieren in einer Studie sechs Kriterien...
Hendrik Heuer über die Relevanz von Joseph Weizenbaums Denken in der digitalen Ausstellung
Die digitale Ausstellung „Pionier, Skeptiker, Aktivist: Die Wendepunkte im Leben von Joseph Weizenbaum“ des Weizenbaum-Instituts ist jetzt live. Hendrik Heuer hat einen Essay zur Relevanz...
Workshop zu nutzerzentrierter Künstlicher Intelligenz in Cagliari
Hendrik Heuer ist Mitorganisator von „UCAI ’24: Workshop on User-Centered Artificial Intelligence“ in Cagliari, Sardinien, Italien im Juli 2024.
Interdisziplinäre Forschung und KI im Fokus
Forschende des CAIS sind auf der Easst-4S 2024 in Amsterdam mit diversen Beiträgen zu den Themenfeldern interdisziplinäre Zusammenarbeit sowie zu Narrativen und Auswirkungen Künstlicher Intelligenz...
Tipps zur Erkennung von Fake News und Falschinformationen zur Europawahl
In Zeiten, in denen Fake News Wahlen beeinflussen können, ist es entscheidend, dass Wähler:innen verlässliche Informationen von Falschinformationen unterscheiden können. Dies gilt besonders für die...
Fakten oder Fakes: Wie erkenne ich vertrauenswürdige Inhalte auf Nachrichtenseiten? – Zu Gast: Prof. Dr. Hendrik Heuer
Wie können Bürger:innen zuverlässige von unzuverlässigen Nachrichtenseiten unterscheiden? Ein Gespräch über Desinformation mit Prof. Dr. Hendrik Heuer.
Reliability Criteria for News Websites
Hendrik Heuer (Forschungsprofessor am CAIS) wird auf der CHI 2024 einen Beitrag zum Thema „Zuverlässigkeitskriterien für Nachrichten-Websites“ halten.
KI gemeinsam gestalten: CAIS startet neues Forschungsprogramm mit Hendrik Heuer
Am Center for Advanced Internet Studies (CAIS) startet im April das neue Forschungsprogramm „Design vertrauenswürdiger Künstlicher Intelligenz“ unter der Leitung von Prof. Dr. Hendrik Heuer.
Doctoral and Postdoctoral Researcher: Design of Trustworthy Artificial Intelligence
Die Professur für den Entwurf vertrauenswürdiger Künstlicher Intelligenz am Center for Advanced Internet Studies (CAIS) gGmbH in Bochum bietet drei Stellen für Doktoranden und eine...
Das Team





