Warum trifft ein KI-System eine bestimmte Entscheidung und wie kann der Entscheidungsprozess so erklärt werden, dass ein Mensch es versteht? Diese Fragen sind ein Schwerpunkt der Forschung am AIML und sind von zentraler Bedeutung für das Verständnis und die Weiterentwicklung von KI-Systemen. Felix Friedrich promoviert am AIML und hat einen Verbesserungsbedarf hinsichtlich Fairness und Voreingenommenheit in KI-Systemen identifiziert. Er konnte zeigen, dass viele KI-Modelle, wie Bildgeneratoren, dazu neigen, stereotype Vorstellungen zu reproduzieren, wie zum Beispiel einen Banker als Mann im Anzug oder die Krankenschwester als Frau.
Voreingenommenheiten komplett aus KI-Modellen zu entfernen? Wahrscheinlich ein unmöglicher Versuch. Ethische Überlegungen sind ein zentraler Bestandteil von Friedrichs Forschung. Der Forscher ruft daher zum menschlichen Pragmatismus auf: Risiken sind bei Menschen zu erwarten, zum Beispiel im Straßenverkehr. Es ist daher falsch zu erwarten, dass Maschinen nie Fehler machen. KI-Systeme sind stark auf menschliches Feedback angewiesen – und je besser wir verstehen, wie die Maschine funktioniert und wo die Fehler liegen, desto besser verstehen wir das Potenzial von KI-Systemen zur Verbesserung.
Insgesamt kann gesagt werden, dass Felix Friedrichs Arbeit am AIML darauf abzielt, das Verständnis für die Entscheidungsprozesse von KI-Systemen zu verbessern und ethische Überlegungen in die Entwicklung von KI-Systemen zu integrieren. Trotz der Herausforderungen bei der Beseitigung von Voreingenommenheiten in KI-Modellen betont Friedrich die Bedeutung von menschlichem Pragmatismus und Verständnis für die Fehleranfälligkeit von Maschinen. Durch eine enge Zusammenarbeit zwischen Mensch und Maschine können KI-Systeme weiterentwickelt und verbessert werden.