Forschungsprogramm: Design vertrauenswürdiger Künstlicher Intelligenz

Das Team um Prof. Hendrik Heuer arbeitet an der Schnittstelle von Künstlicher Intelligenz und Mensch-Computer-Interaktion.
Gesamtprozess
  1. Home
  2. Forschungsprogramm: Design vertrauenswürdiger Künstlicher Intelligenz

Im Rahmen des Forschungsprogramms werden Prinzipien einer vertrauenswürdigen Künstlichen Intelligenz erarbeitet, technisch realisiert und gemeinsam mit Nutzer:innen in praktischen Anwendungsfeldern erprobt. Ein besonderer Fokus liegt dabei auf Sozialen Medien und auf der Frage, wie sie verbessert werden können.

Vertrauen in KI durch Verständnis

Vertrauen in KI durch Mitgestaltung

Das Forschungsprogramm steht in der Tradition der partizipativen und nutzerzentrierten Softwareentwicklung  und erweitert diese mit einem Fokus auf Künstliche Intelligenz und Maschinelles Lernen. Die partizipative Softwareentwicklung bietet zahlreiche Methoden, um Nutzer:innen aktiv in die Softwareentwicklung einzubeziehen. Unser Ziel ist es, diese Methoden im Hinblick auf Künstliche Intelligenz und Maschinelles Lernen als eine neue Art der Co-Creation weiterzuentwickeln.

Ein Bereich, in dem das Forschungsprogramm Methoden der Mensch-KI-Interaktion erforschen wird, sind soziale Medien. Dieser Anwendungskontext eignet sich besonders gut, da KI-Systeme auf Plattformen wie Facebook, YouTube, TikTok, Instagram und Twitter eine zentrale Rolle spielen. Bis zu 70 % der auf YouTube angesehenen Videos wurden von einem KI-System ausgewählt. Die Forschung zur Human-AI Interaction ist gesellschaftlich relevant, da die Nutzer:innen in der Regel keine Kontrolle über KI-Systeme haben und oft nichts von der Existenz der Systeme wissen.

Vertrauen in KI durch Kontrolle

Prof. Dr. Hendrik Heuer

 

 

 

Leiter Forschungsprogramm
hendrik.heuer@cais-research.de

Direkt zu …

Forschungsbereiche

Der Forschungsschwerpunkt zielt darauf ab, das Verständnis der Nutzer:innen von KI-Systemen zu messen und zu analysieren (User Beliefs, Folk Theories). Wir erweitern Vorarbeiten über das Verständnis von Nutzer:innen von KI-Systemen, insbesondere Videoempfehlungssystemen, die auf maschinellem Lernen basieren. Ein besonderer Fokus liegt auf der Transparenz und Erklärbarkeit von KI-Systemen.

In diesem Forschungsschwerpunkt werden Methoden zur Kontrolle der Ausgabe von ML-basierten Systemen durch systematische Audits entwickelt. Eine wichtige Motivation ist das Verhindern von Diskriminierung. Der Schwerpunkt ist durch Vorarbeiten zur Online-Radikalisierung auf YouTube motiviert.

Wir beschäftigen uns zudem mit der Entwicklung von Methoden zur umfassenden Einbeziehung von Nutzer:innen in die Gestaltung von KI-Systemen. Unser Fokus auf eine tiefe Einbindung der Nutzer:innen beruht auf Vorarbeiten wie einer interdisziplinären Zusammenarbeit mit Sozialwissenschaftler:innen und einer umfangreichen Literaturübersicht über die verschiedenen Ansätze zur Einbindung der Nutzer:innen. Der Schwerpunkt steht im Kontext der Demokratisierung von maschinellen Lernverfahren.

Aktuelles

Das Team