Vorprogrammierte Diskriminierung
Wie verzerrte Algorithmen Vorurteile in Software zur Erkennung von Gesichtern einbacken.
Joy Buolamwini ist eine afroamerikanische Forscherin für künstliche Intelligenz am Massachusetts Institute of Technology (MIT). Eines Tages baut sie sich einen Bildschirm mit eingebautem Gesichtsfilter – aus Neugier und Experimentierfreudigkeit. Wenn Joy fortan in den Bildschirm – wie in einen Spiegel – blickt, dann sollte ihr nicht mehr ihr eigenes Antlitz, sondern jenes eines beliebigen Promis entgegenlächeln. Wer würde schon nicht gerne einmal wie die Tennis-Ikone Serena Williams aussehen? Dumm nur: Die eingesetzte Software kann Joys Gesicht nicht einordnen. Erst als sie sich eine weisse Theatermaske aufsetzt, spuckt der Bildschirm einen Treffer aus.
Die neue Netflix-Doku «Coded Bias – vorprogrammierte Diskriminierung» der Filmemacherin Shalini Kantayya hat Joys Geschichte aufgegriffen. Der Film zeigt auf, weshalb moderne Gesichtserkennungssoftware inhärenten Verzerrungen unterliegt: Die Programme basieren nämlich auf Algorithmen, die an Datensätzen geschult wurden. So sollen die Algorithmen Regelmässigkeiten erkennen und Schritt für Schritt neue Erkennungsmuster dazulernen. Je mehr Daten man dem Algorithmus als Lernmaterial füttert, desto genauer wird er.
«Coded Bias» verdeutlicht, dass die Repräsentation in den Datensätzen allerdings alles andere als ausgewogen ist: Möglich ist, dass dabei auf historische Sammlungen zurückgriffen wurde, in denen Minderheiten aufgrund rassistischer Vorurteile bewusst ausgespart wurden. Möglich ist aber auch, dass die verwendeten Bilder einfach entsprechend der amerikanischen Demografie ausgewählt wurden. Afroamerikaner machen rund 13 Prozent der US-Bevölkerung aus. Diese Untervertretung in den Daten rächt sich nun in Form von Ungenauigkeit bei der Gesichtserkennung: Bei der von Amazon verwendeten Software zum Beispiel werden hellhäutige männliche Gesichter zu beinahe 100 Prozent korrekt erkannt – bei dunkelhäutigen weiblichen Gesichtern beträgt die Erfolgsquote lediglich 68,6 Prozent.
Die hohe Fehlerquote bei Minderheiten hat schwerwiegende Konsequenzen: Wenn die Gesichtserkennung zum Beispiel in der Strafverfolgung beigezogen wird, dann führt die Ungenauigkeit dazu, dass unschuldige Passanten häufiger mit gesuchten Kriminellen verwechselt werden – und im schlimmsten Fall für Verbrechen geradestehen müssen, die sie gar nicht begangen haben. (jk)