Das Projekt untersucht, ob und ggf. inwieweit der etablierte philosophische Diskriminierungsdiskurs auf neue Formen der Benachteiligung durch Methoden der künstlichen Intelligenz anwendbar ist.
Einige Probleme, die im Kontext KI-gestützter Entscheidungen z.B. durch die Verwendung vorurteilsbelasteter Trainingsdaten entstehen, lassen sich durch etablierten Diskriminierungskonzepte gut erfassen. Darüber hinaus gibt es aber auch kompliziertere Phänomene, die zu neuartigen Formen der Benachteiligung führen. Beispielsweise korrelieren beim „redundant encoding“ besonders geschützte Merkmale, wie die ethnische Zugehörigkeit, so eng mit vermeintlich unproblematischen Daten wie der Postleitzahl, dass eine Nutzung der vermeintlich unproblematischen Daten zu einer Schlechterstellung geschützter Gruppen führt. Ferner kann der Einsatz von KI zu einer systematischen Benachteiligung „zufälliger Gruppen“, wie etwa Menschen mit einem bestimmten Einkaufsverhalten, das mit Zahlungsausfällen korreliert, führen. Hier ist zu klären, inwieweit das herkömmliche Verständnis von Diskriminierung von klassischen Merkmalen, wie Hautfarbe, Geschlecht oder Alter, gelöst werden kann.
In allen betrachteten Phänomenbereichen soll untersucht werden, wie etablierte Diskriminierungsbegriffe angepasst werden müssen, um Phänomene der KI-basierten Benachteiligung adäquat zu erfassen. Das Projekt ist im „Use Case Recht“ der Manchot-Forschungsgruppe „Entscheidungsfindung mit Hilfe von Methoden der künstlichen Intelligenz“ angesiedelt.
Ansprechpartner
Prof. Dr. Frank Dietrich
Philosophie
Prof. Dr. Frank Dietrich ist seit 2012 Inhaber des Lehrstuhls für Praktische Philosophie an der HHU-Düsseldorf. Seine Schwerpunkte in Forschung und Lehre liegen im Bereich der Politischen Philosophie, der Rechtsphilosophie und der Ethik.
Im Rahmen des DIID befasst er sich mit der demokratietheoretischen Legitimation von Verfahren der Online-Partizipation sowie dem Schutz der Privatsphäre.