Warum wir Gesichtserkennung nicht wollen können
Angela Müller, zvg.

Warum wir Gesichtserkennung nicht wollen können

Wenn der öffentliche Raum mit Hilfe von Algorithmen überwacht wird, ist das eine Gefahr für die Grundrechte. Und für die Demokratie.

 

An einem Januarmorgen 2020 wird Robert Williams vor seinem Haus in den Suburbs von Detroit überraschend von der Polizei verhaftet. Er soll in einem Geschäft in der Innenstadt fünf Uhren entwendet haben. Ähnlich erging es Nijer Parks und Michael Oliver: Parks warf die Polizei vor, in einer Autovermietungsstation Snacks gestohlen und einen Polizeibeamten geschlagen zu haben, Oliver soll das Smartphone einer Drittperson zerstört haben. In allen drei Fällen stellte sich später heraus: Die Beschuldigten haben das ihnen vorgeworfene Delikt nie begangen.

Parks, Oliver und Williams haben aber zwei weitere Dinge gemeinsam. Erstens: Bei allen entstand der Verdacht im Rahmen einer polizeilichen Auswertung von Videomaterial – das Gesichtserkennungssystem meldete jeweils einen falschen Treffer. Zweitens: Williams, Parks und Oliver haben dieselbe Hautfarbe – sie sind schwarz.

Überwachung konditioniert

Biometrische Erkennungssysteme werden heute nicht nur in den USA oder China, sondern auch in ganz Europa getestet und eingesetzt. Beachtung verdienen dabei nicht in erster Linie jene Tools, mit denen wir etwa das Smartphone entsperren, sondern jene, die uns mittels unseres Gesichts, unserer Stimme oder unseres Ganges aus einer Masse von Individuen heraus identifizieren können, indem sie auf eine Datenbank zurückgreifen. Wenn auch noch viel Intransparenz dazu herrscht, wo, von wem und wozu biometrische Erkennungssysteme eingesetzt werden, häufen sich die Berichte: Die Stadt Berlin experimentierte mit Gesichtserkennungstools in Bahnhöfen,1 Nizza ganz generell im öffentlichen Raum.2 Pendlerinnen und Pendler der Moskauer Metro3 können seit letztem Jahr die biometrischen Daten ihres Gesichts mit ihrer Kreditkarte verknüpfen – sobald registriert, reicht der Gesichtsscan für den Kauf einer Fahrkarte. In Schottland4 haben Kinder in Schulmensen mittels Gesichtsscan ihr Mittagessen beglichen, bevor das Projekt unter massivem öffentlichem Druck gestoppt wurde. In der Schweiz liebäugeln Fussballclubs und Supermärkte5 mit entsprechenden Tools – während kantonale Polizeibehörden, etwa in Aargau, Neuenburg, St. Gallen und der Waadt, sie bereits einsetzen.6

«Die reine Möglichkeit,

dass wir jederzeit ohne unser Wissen,

unter ­Umständen auch ­nachträglich,

identifiziert werden könnten,

kann unsere Aktivitäten und

Bewegungen im öffent­lichen Raum ­konditionieren.»

Für viele hört sich das erst mal gut an: Warum nicht die technologischen Werkzeuge nutzen, die uns heute zur Verfügung stehen, um möglichst effizient auf Verbrecherjagd zu gehen – oder bequem den Lunch abzurechnen? Einerseits zeigen die Fälle von Williams, Parks und Oliver: Gesichtserkennungssysteme können oft diskriminierend wirken, da sie Menschen dunkler Hautfarbe oder Frauen tendenziell weniger gut erkennen. Dies erhöht bei diesen Menschen die Möglichkeit eines falsch-positiven Treffers – der, zum Beispiel im Kontext der Strafverfolgung, relevante Auswirkungen auf ihr Leben haben kann. Der Grund für diese verzerrte Wirkung der Algorithmen liegt in Verzerrungen (sogenannte «Biases») ihrer Trainingsdaten: Die Systeme werden nicht mit genügend repräsentativen Daten trainiert, sondern mit überproportional vielen Bildern von Männern weisser Hautfarbe. Dieses Problem ist heute relativ breit anerkannt, die Trainingsdatenbanken werden diverser, die Systeme laufend verbessert und damit genauer. Doch genau damit werden sie auch zu einem mächtigeren Überwachungsinstrument.

Denn anderseits – unabhängig davon, wie…