Manchot Forschungsgruppe: Diskriminierung durch Entscheidungen mit Hilfe künstlicher Intelligenz

Das Projekt untersucht, ob und ggf. inwieweit der etablierte philosophische Diskriminierungsdiskurs auf neue Formen der Benachteiligung durch Methoden der künstlichen Intelligenz anwendbar ist.

Einige Probleme, die im Kontext KI-gestützter Entscheidungen z.B. durch die Verwendung vorurteilsbelasteter Trainingsdaten entstehen, lassen sich durch etablierten Diskriminierungskonzepte gut erfassen. Darüber hinaus gibt es aber auch kompliziertere Phänomene, die zu neuartigen Formen der Benachteiligung führen. Beispielsweise korrelieren beim „redundant encoding“ besonders geschützte Merkmale, wie die ethnische Zugehörigkeit, so eng mit vermeintlich unproblematischen Daten wie der Postleitzahl, dass eine Nutzung der vermeintlich unproblematischen Daten zu einer Schlechterstellung geschützter Gruppen führt. Ferner kann der Einsatz von KI zu einer systematischen Benachteiligung „zufälliger Gruppen“, wie etwa Menschen mit einem bestimmten Einkaufsverhalten, das mit Zahlungsausfällen korreliert, führen. Hier ist zu klären, inwieweit das herkömmliche Verständnis von Diskriminierung von klassischen Merkmalen, wie Hautfarbe, Geschlecht oder Alter, gelöst werden kann.

In allen betrachteten Phänomenbereichen soll untersucht werden, wie etablierte Diskriminierungsbegriffe angepasst werden müssen, um Phänomene der KI-basierten Benachteiligung adäquat zu erfassen. Das Projekt ist im „Use Case Recht“ der Manchot-Forschungsgruppe „Entscheidungsfindung mit Hilfe von Methoden der künstlichen Intelligenz“ angesiedelt.