Am 27. Dezember 2024 wurde der Artikel „AI Ethics Unwrapped: An Empirical Investigation of Ethical Principles in Collaborative Ideation Processes“ von Christina Cociancig (Universität Bremen), Hendrik Heuer (CAIS) und Andreas Breiter (Institut für Informationsmanagement Bremen und Universität Bremen) in der Fachzeitschrift AI and Ethics veröffentlicht.
Abstract
Motiviert durch die anhaltende Kritik an der praktischen Operationalisierung ethischer Prinzipien in der Entwicklung künstlicher Intelligenz (KI), richtet sich diese Studie auf die ethische Praxis von KI-Entwicklern in Deutschland. Wir konzentrieren uns auf Design als technologische Schlüsselpraxis und Entwickler als Gestalter von KI-basierten Systemen, wenn wir die sozial, historisch und kontextuell beeinflusste Praxis der KI-Ethik im Designprozess untersuchen. Wir betten unsere Methodik in wertesensibles Design (VSD) ein, führen Design-Thinking-Workshops durch, in denen KI-Tools für hypothetische Anwendungsfälle prototypisiert werden, und stützen unsere Analyse auf etablierte ethische Richtlinien für KI. Die Ergebnisse dieser Studie zeigen nicht nur ein Bewusstsein für ethische Prinzipien bei den Entwicklern, sondern vor allem einen starken Einfluss der Ethik auf Designentscheidungen. Die Entwickler passen ihre Entwürfe mit technischen Eingriffen zugunsten derjenigen an, die ihre Lösungen nutzen und von ihnen betroffen sind. Wir leisten einen dreifachen Beitrag: Wir erstellen ein feinkörniges Kategorisierungssystem für ethische Prinzipien auf der Grundlage von KI-Ethikrichtlinien und VSD. Wir bestätigen frühere empirische Forschungen, die den veranlassten und selbstberichteten Einfluss und die Priorisierung von ethischen Prinzipien untersucht haben. Abschließend fassen wir unsere Ergebnisse mit konkreten Gestaltungsempfehlungen für KI-Ethik durch Design zusammen. Wir konzentrieren uns auf Empfehlungen für die Einbeziehung des Menschen, den Schutz der Privatsphäre und die Nichtdiskriminierung: Förderung der partizipativen Gestaltung von KI und Vermeidung von End-to-End-Automatisierung in Fällen, in denen Menschen betroffen sind; Befähigung von Entwicklern, technische Eingriffe von Beginn des Gestaltungsprozesses an zu integrieren, um den Schutz der Privatsphäre durch KI zu etablieren; und Unterstützung von Entwicklern bei der Betonung der Nichtdiskriminierung von KI, insbesondere in Kontexten, die historisch mit Diskriminierung verbunden sind.