Künstliche Intelligenz stammt aus der Maschine – genau deswegen ist sie nicht automatisch fair. Die Doktorandin Lena Krieger beschäftigt sich am Forschungszentrum Jülich mit neuen Methoden, um genau das zu ändern. Ihr Ziel: Algorithmen, die alle Menschen gleichbehandeln – unabhängig von Ethnie, Geschlecht oder anderen sensiblen Merkmalen.
KI-Modelle spiegeln Ungleichheiten innerhalb der Gesellschaft wider. Faire Algorithmen sollen dies ausgleichen. Copyright: Adobe Stock
Frau Krieger, Sie beschäftigen sich mit Fairness in der Künstlichen Intelligenz. Warum ist das ein Problem – ist KI nicht neutral?
Im Allgemeinen besteht die Herausforderung bei KI-Modellen darin, dass sie stark von der Qualität der Trainingsdaten abhängig sind. Leider sind Minderheiten in diesen Datensätzen oft unterrepräsentiert, was dazu führt, dass Verzerrungen im Modell verstärkt werden. Ein bekanntes Beispiel, das die Dringlichkeit von Fairness unterstreicht, ist die COMPAS-Studie: Ein Modell sollte die Rückfallraten mutmaßlicher Straftäter vorhersagen, um Entscheidungen über die Strafzumessung zu erleichtern. Bei genauerer Betrachtung zeigte sich, dass People of Color unabhängig von ihren Straftaten häufig deutlich höhere Risikowerte erhielten als weiße Personen. Das Modell zog Schlussfolgerungen aus Variablen, die keinen Einfluss haben sollten. Faire KI-Ansätze setzen genau da an – sie wirken Diskriminierung entgegen, indem sie zum Beispiel verhindern, dass sensitive Attribute wie Ethnie oder Geschlecht die Entscheidungen beeinflussen.
Sie haben gemeinsam mit Kolleginnen den Algorithmus FairDen entwickelt. Was genau macht dieser Algorithmus – und was unterscheidet ihn von anderen?
In unserem Projekt haben wir uns mit dichtebasiertem Clustering beschäftigt. Clustering bedeutet, dass Daten automatisch in Gruppen eingeteilt werden – je nachdem, wie ähnlich sie einander sind. Im Gegensatz zu vielen Methoden aus dem klassischen maschinellen Lernen braucht man dafür keine Labels, also die Angabe einer Kategorie. Die Struktur entsteht direkt aus den Daten. Beim sogenannten dichtebasierten Clustering werden dabei Bereiche mit vielen Datenpunkten als Cluster erkannt, getrennt durch Zonen, in denen nur wenige Punkte liegen.
Unser Algorithmus – FairDen – geht noch einen Schritt weiter und achtet gleichzeitig auf Fairness. Er sorgt dafür, dass bestimmte Merkmale – sogenannte sensitive Attribute wie etwa Geschlecht oder Herkunft – innerhalb der Cluster möglichst gleichmäßig verteilt sind. Dadurch entstehen Cluster, die einerseits die natürliche Datenstruktur abbilden, andererseits aber Verzerrungen und Ungleichgewichte vermeiden.
Lena Krieger (l.) und Dr. Anna Beer (r.) haben den neuen Algorithmus unter anderem auf einer der führenden Konferenzen zum maschinellen Lernen, ICLR, im Frühjahr in Singapur vorgestellt. Das wissenschaftliche Paper entstand während eines Forschungsaufenthalts an der Universität Aarhus – ohne ausbalancierte Geschlechterverteilung, von einem reinen Frauenteam.
Für welche Anwendungsbereiche ist FairDen gedacht?
FairDen kann in ganz unterschiedlichen Anwendungen eingesetzt werden – überall dort, wo Datenpunkte gruppiert werden sollen. Also zum Beispiel, um einen Überblick über große Datenmengen zu bekommen. Wichtig ist nur, dass es mindestens ein sensibles Attribut gibt, wie etwa Geschlecht. Ein Beispiel wäre die Zusammenstellung von Schulklassen: Man könnte festlegen, dass die ethnische Verteilung möglichst ausgeglichen ist und gleichzeitig Kinder aus der gleichen Region in dieselbe Klasse kommen sollen.
Welche Herausforderungen bestehen weiterhin? Welche Verbesserungsmöglichkeiten gibt es noch?
Natürlich haben wir mit FairDen nur einen ersten Schritt in Richtung faire KI gemacht. Es gibt noch viele offene Fragestellungen. Besonders spannend finde ich den Bereich zwischen Erklärbarkeit und Fairness – das sogenannte Actionable Recourse. Dabei geht es darum, den Nutzerinnen und Nutzern nicht nur zu erklären, warum ein Modell ein bestimmtes Ergebnis liefert, sondern ihnen auch Handlungsmöglichkeiten aufzuzeigen. Wenn zum Beispiel jemand einen Kredit beantragt und ihn nicht bekommt, bringt es wenig zu sagen: „Es wäre besser, wenn Sie fünf Jahre jünger wären.“ Stattdessen sollte die Erklärung eher lauten: „Wenn Sie Ihre bestehenden Schulden reduzieren, steigen Ihre Chancen.“ Solche umsetzbaren Hinweise sind wichtig, damit die Menschen verstehen, wie Entscheidungen zustande kommen – und was sie selbst tun können, um sie zu beeinflussen.
Zur Person
Lena Krieger ist Doktorandin am Institut für Datenanalytik und Maschinelles Lernen (IAS-8) des Forschungszentrums Jülich. Sie wird von Prof. Dr. Ira Assent (Forschungszentrum Jülich & Aarhus University, Dänemark) und Prof. Dr. Thomas Seidl (LMU München) betreut. In ihrer Forschung beschäftigt sie sich mit der Erklärbarkeit und Fairness von Machine-Learning-Modellen.