In der Sendung „Breitband“ von Deutschlandfunk Kultur ordnet Hendrik Heuer, leitender Professor des Forschungsprogramms „Vertrauenswürdige Künstliche Intelligenz“ am Center for Advanced Internet Studies (CAIS), die Veröffentlichung von ChatGPT-5 und die kontroversen Reaktionen darauf ein. Im Gespräch verweist Hendrik Heuer zunächst auf die begrenzte Aussagekraft gängiger Benchmark-Tests, in denen das neue Modell sehr gute Ergebnisse erzielt. Solche standardisierten Vergleichstests erlauben zwar Leistungsbewertungen zwischen KI-Modellen, liefern jedoch nur eingeschränkt belastbare Aussagen für den praktischen Einsatz. Da KI-Systeme mit großen Mengen an Internetdaten trainiert und häufig mit Aufgaben getestet werden, deren Lösungen ebenfalls online verfügbar sind, bestehe die Gefahr, bekannte Inhalte zu reproduzieren, statt reale Problemlösungskompetenz abzubilden. Hendrik Heuer plädiert daher für unabhängige Tests und Recherchen durch externe Akteur:innen, etwa durch den Journalismus – vergleichbar mit Prüfmechanismen aus der Automobilindustrie.
Darüber hinaus thematisiert Prof. Heuer die Debatte um die Emotionalität von ChatGPT. Viele Nutzer:innen vermissten beim neuen Modell die als „nett“ oder „persönlich“ empfundene Ansprache früherer Versionen. Diese Reaktionen zeigten, wie stark KI-Systeme emotionale Bindungen und Vertrauen erzeugen können. Dass OpenAI diese Effekte zunächst zurückgefahren und später teilweise revidiert habe, greife aus Heuers Sicht am eigentlichen Problem vorbei. Statt Risiken lediglich nachträglich zu relativieren, müssten KI-Systeme von Beginn an verantwortungsvoll gestaltet werden.
Erkenntnisse aus dem Forschungsfeld der Mensch-Computer-Interaktion zeigen, dass nutzerzentrierte Designentscheidungen maßgeblich beeinflussen, wie KI wahrgenommen und genutzt wird. Vertrauen dürfe nicht zufällig entstehen, sondern müsse bewusst und verantwortungsvoll mitgedacht werden.