Darf das die Polizei?
Kantonspolizisten verwenden Algorithmen zur Analyse von Gesichtern. Es ist jedoch umstritten, ob dafür überhaupt eine Rechtsgrundlage besteht.
Wer durch die Strassen einer chinesischen Grossstadt schlendert, wird rund um die Uhr überwacht. Mehr noch: Mittels einer Computersoftware können Behörden in Echtzeit ausfindig machen, wer die gefilmte Person überhaupt ist. Damit wird das Sozialkreditsystem, der feuchte Traum der Kommunistischen Partei Chinas, im Handumdrehen realisierbar: Wer bei Rot über die Strasse läuft, wird mittels Gesichtserkennung innert Sekunden identifiziert und mit einem Abzug auf dem Punktekonto bestraft.
Globales Phänomen
Die Verbreitung der Gesichtserkennungssoftware beschränkt sich allerdings nicht auf das gängige Fallbeispiel China: Gemäss Auswertungen des VPN-Anbieters Surfshark wurden Gesichtserkennungssysteme Stand 2020 weltweit in über 109 Ländern angewendet. Auch in Europa liebäugeln die Behörden mit der Gesichtserkennung: Am Berliner Bahnhof Südkreuz beispielsweise endete im Sommer 2018 ein Testeinsatz smarter Überwachungskameras, die Personen aus einer Menschenmenge in Echtzeit mit einer Trefferquote von über 80 Prozent identifizieren konnten. Das Bundesministerium des Inneren bezeichnete das Projekt in einer Medienmitteilung anschliessend als «erfolgreich», Bundesinnenminister Horst Seehofer schwärmte von der effizienteren Gestaltung der Polizeiarbeit. Eine breite Einführung sei nun möglich, liess sich Seehofer zitieren.
In den Schlagzeilen taucht auch immer wieder das Unternehmen Clearview auf, dessen Gesichtserkennungstool von zahlreichen amerikanischen Sicherheitsbehörden und Gerüchten zufolge seit kurzem auch vom ukrainischen Verteidigungsministerium zur Identifikation toter russischer Soldaten angewendet wird. Das New Yorker Start-up äusserte jüngst in einem Investorenpapier die Pläne, die hauseigene Datenbank bis Jahresende auf sage und schreibe 100 Milliarden Bilder aufzublähen – im Schnitt also rund 13 Aufnahmen pro Mensch auf der Erde.
Viele mögen beim Stichwort «Gesichtserkennungssoftware» an ein Google für Gesichter denken: Zeig mir dein Gesicht, und ich sage dir, wer du bist. Für Clearview passt dieses Bild: Bei der amerikanischen Software wird eine Datenbank mit Bildern aus dem Internet mitgeliefert, dazugehörige Namen sind ebenfalls vermerkt. Erlangt hat Clearview diese Daten mittels des sogenannten «Scraping», was übersetzt «Kratzen» bedeutet: Es hat öffentlich zugängliches Bildmaterial aus dem Internet kostenlos und ohne Zustimmung der Nutzer runtergeladen und gespeichert. Wenn Sie auf Facebook oder Instagram jemals ein Profilbild gepostet haben, sind Sie sehr wahrscheinlich bei Clearview notiert.
Die allermeisten Gesichtserkennungsalgorithmen – besonders jene, auf die Strafverfolgungsbehörden in Europa gegenwärtig setzen – liefern die Identitäten der gesuchten Gesichter jedoch nicht mit: Die Datentöpfe sind nicht Teil der Software, sondern müssen vom späteren Nutzer selektiv eingefüttert werden. Wenn ein Polizist mit einer solchen Software beispielsweise die Videoaufnahmen einer Massenschlägerei auswertet, spuckt ihm der Algorithmus also nicht das Facebookprofil der Beteiligten aus. Stattdessen erstellt der Computer vom gesuchten Gesicht eine digitale Signatur, die dann mit jenen von anderen Gesichtern aus einer polizeieigenen Datenbank verglichen wird.
Sorgenfalten beim Entwickler
Besuch bei AVA-X, einem Entwicklerteam eines Gesichtserkennungsalgorithmus der Firma Deep Impact: Die Büroräumlichkeiten im Winterthurer Industriegebiet könnten nicht besser zu einer hippen Softwarebude passen. Neben dem grossen Flatscreen steht zur Dekoration eine Spidermanpuppe, auf den bequemen Sofas haben sich einige Mitarbeiter mit Laptop und Noise-Cancelling-Kopfhörern eingenistet. Die schweren Türen lassen sich für sie selbstverständlich mit dem Gesicht öffnen. Stolz zeigt Tobias Bolliger, bekleidet mit Kapuzenpulli und Baseballcap, die hauseigene Gin-Bar – die grösste Winterthurs, scherzt er. Bolliger leitet die Gruppe AVA-X, ein Team mit fünf Entwicklern. In seiner früheren Tätigkeit als Ermittler bei der Bundeskriminalpolizei habe er hautnah miterlebt, wie zermürbend eine stundenlange Auswertung von Bildmaterial für einen Polizisten sein könne – besonders dann, wenn sich die Ermittlungen um Sexualverbrechen oder Kinderpornografie drehten.
Sentinel, die Softwarelösung aus dem Hause AVA-X, könne den Vergleich von Gesichtern aus verschiedenen Bild- und Videoquellen weitaus effizienter vornehmen als ein menschliches Auge, erklärt Bolliger. Sobald das System in einer Datenbank eine Übereinstimmung der digitalen Signaturen vorfindet, wird dem Nutzer innert Sekundenschnelle eine Ähnlichkeit suggeriert – durch ein menschliches Urteil wird überprüft, ob der Computer tatsächlich einen Treffer gelandet hat. Zwei ganze Jahre und Entwicklungskosten von 2,5 Millionen Franken habe man investiert, um den Algorithmus auf seine Treffergenauigkeit zu trimmen, erzählt Bolliger. Der Aufwand habe sich ausbezahlt: Eine Messung hat ergeben, dass Sentinel ein Gesicht in 99,81 Prozent aller Fälle richtig erkennt. Neben Privatunternehmen, die mit der Gesichtserkennung beispielsweise Einlasskontrollen oder Überprüfungen des Covid-Zertifikats beschleunigen können, zählt AVA-X gemäss Nachfrage auch Nachrichtendienste zu seinen Kunden.
Die Technik sei schon sehr weit fortgeschritten, meint Bolliger. Entscheidend sei nun die Frage, mit welchen Daten man den Algorithmus füttern dürfe: «Allein die Fähigkeit, dass eine künstliche Intelligenz Video- und Bildmaterial auswerten kann, ist noch nicht gefährlich. Gefährlich wird sie erst, wenn die Analysefähigkeit mit potentem Material verbunden wird.» Bolliger gesteht, dass sein eigenes Produkt die kühnsten Überwachungsalbträume verwirklichen könnte: «Unsere Software wäre ideal für den Aufbau einer umfassenden Echtzeitüberwachung. Schliesst man sie beispielsweise allen Kameras des Zürcher Hauptbahnhofs an, dann könnte man tausende Personen simultan tracken. Technisch wäre das kein Problem.» Auch Bolliger schaudert es vor einer solchen Zukunft. Rechtlich gebe es für die Entwickler bis heute keine Einschränkungen: Niemand schreibe vor, welche datenschutzrechtlichen Bedenken ein Kunde erfüllen müsse, damit dieser Sentinel erwerben dürfe. Die einzige Kontrollhürde: Der Entwickler lehnt aus moralischen Bedenken ein Kaufangebot ab. Von seinen behördlichen Kunden will Bolliger jeweils wissen, welche Datenbanken an die Software angeschlossen würden – und auf welcher rechtlichen Basis die Daten vom Staat erlangt worden seien. Auf ihren Wahrheitsgehalt überprüfen kann Bolliger die Auskunft allerdings nicht.
Im polizeilichen Bereich profitiert Bolliger von seiner früheren Laufbahn bei der Bundeskriminalpolizei: Er kennt potentielle Kunden und weiss, ob diese vertrauenswürdig und gewissenhaft arbeiten – zumindest an seiner eigenen Erwartungshaltung gemessen. AVA-X habe schon mehrfach Kunden abgelehnt, weil diese mit der Software eine umfassende Überwachungsinfrastruktur aufbauen wollten, erzählt Bolliger. Oftmals hätten diese Kunden dann im Anschluss Anbieter aus Israel oder Weissrussland gefunden, die ihre Wünsche mit Handkuss erfüllten. Bolliger hofft auf einen gesetzlichen Rahmen – und hat auch schon Ideen für mögliche Ansätze zur Regulierung: «Anbieter sollen ihre Produkte mit Standards und Zertifizierungen für Sicherheit und Transparenz kennzeichnen müssen.» Zudem wünscht sich Bolliger einen Mechanismus zur Kontrolle, ob seine Kunden die Software wirklich so einsetzen, wie sie es ihm bei den Verhandlungen versprochen haben. Ob man die Gesichtserkennung noch stoppen könne? «Bildmaterial entsteht heutzutage überall: Vor jedem Ladeneingang hängt eine Überwachungskamera, Passanten können jederzeit mit ihrem Smartphone ihre Umgebung filmen. Die künstliche Intelligenz lässt sich nicht mehr aufhalten – dafür ist es viel zu spät», meint Bolliger.
Beschwichtigung beim Polizisten
Auch in der Schweiz ist für die maschinelle Analyse von Gesichtern in ersten Kantonen bereits ein Instrument in Anwendung: In einer Umfrage der «Rundschau» bestätigten im Januar die Polizeikorps der Kantone Aargau, Neuenburg, St. Gallen und Waadt, Gesichtserkennungsalgorithmen im Rahmen ihrer Ermittlungen einzusetzen. Die Kantonspolizei Aargau will nach Anfrage der Autoren «derzeit keine Reportagen zu diesem Thema betreuen». Offener zeigt sich die Kantonspolizei St. Gallen, die seit 2021 über ein entsprechendes Auswertungstool verfügt: Eine Livedemonstration sei zwar ein zu grosser Aufwand, doch Stefan Helfenberger, Leiter der Ermittlungsunterstützung, steht für ein Gespräch zur Verfügung.
«Clearview äusserte jüngst Pläne,
die eigene Datenbank bis Jahresende
auf 100 Milliarden Bilder aufzublähen –
im Schnitt also rund 13 Aufnahmen
pro Mensch auf der Erde.»
Sorgfältig skizziert Helfenberger den Gebrauch der Gesichtserkennung bei der Kantonspolizei St. Gallen. Es fehle noch die Erfahrung mit dem Tool: Man habe die Software erst für eine Anzahl Ermittlungen im tiefen einstelligen Bereich verwendet – es gelte im konkreten Einzelfall nämlich immer zu überprüfen, ob das vorhandene Bildmaterial einen aussagekräftigen Gesichtsabgleich erlaube. Zudem käme die Software nur ex post bei Ermittlungen zu schweren Straftaten, etwa schweren Sexual-, Gewalt- und Tötungsdelikten, zum Zug. Die Kantonspolizei St. Gallen setzt auf die schwedische Softwarelösung Griffeye, die gemäss Angaben des Herstellers weltweit von über 4000 Strafverfolgungsbehörden in über 82 Ländern verwendet wird. In einem konkreten Ermittlungsfall werden gewissermassen zwei unterschiedliche Datentöpfe verglichen: Der erste besteht aus Bild- oder Videoquellen, die die Polizei nach einer begangenen Tat im Rahmen eines Ermittlungsauftrags sichergestellt hat. Bei einem Banküberfall wäre das beispielsweise eine Aufnahme einer Überwachungskamera beim Gebäudeeingang. Der zweite Datentopf besteht aus einem manuellen Export der erkennungsdienstlichen Datenbank des eigenen Kantons: Dabei handelt es sich um Bilder von Personen, die im Rahmen eines früheren Strafverfahrens rechtmässig erkennungsdienstlich erfasst worden sind. Im Kanton St. Gallen seien damit insgesamt über 90 000 Personen erfasst, sagt Helfenberger. Um möglichen Missbrauch zu verhindern, werde die Software weder ans Internet noch an polizeiliche Datenbanken angeschlossen – es handle sich beim Auswertungstool also um eine sogenannte Stand-alone-Lösung, erklärt Helfenberger. Bei einer Ermittlung wird durch die Software ein Vergleichsbild aus dem ersten mit dem zweiten Datentopf abgeglichen und eine mögliche Übereinstimmung mit dem ausgewählten Gesicht gesucht – es könne durchaus vorkommen, dass der Algorithmus je nach Bildqualität mehrere Treffer vorschlage, die es dann mit menschlichem Auge zu überprüfen gelte.
Es gäbe durchaus Gremien, die der Polizei in ihren Ermittlungstätigkeiten auf die Finger schauen könnten, allen voran der jeweilige Datenschutzbeauftragte des Kantons. Gemäss Aussagen des Zürcher Anwalts Martin Steiger im «Tages-Anzeiger» verfügen diese allerdings oft über zu wenige Ressourcen, um dieser Tätigkeit zufriedenstellend nachkommen zu können. Damit bleibt dem Bürger nichts anderes übrig, als der Polizei zu vertrauen.
Stefan Helfenberger ist überzeugt, dass die Kantonspolizei St. Gallen sich mit ihrem Einsatz künstlicher Intelligenz innerhalb des rechtlichen Rahmens bewegt – sie habe die Frage von Juristen überprüfen lassen. Helfenberger glaubt gar, dass der Algorithmus aus Sicht der Grundrechte einen Fortschritt darstellen könnte: «Im Gegensatz zur Software kann sich ein Mensch bei der manuellen Sichtung nicht nur auf wesentliche Gesichtsmerkmale fokussieren – er analysiert das Umfeld und den Videohintergrund ebenfalls mit, wodurch sich auch unbeteiligte Personen in den Erinnerungen der Ermittler festsetzen könnten. Mit einem automatisierten Abgleich gibt es somit eigentlich einen geringeren Grundrechtseingriff, weil eine Software kein natürliches Erinnerungsvermögen besitzt.» Helfenberger wehrt sich vehement gegen den Vergleich mit totalitären Anwendungen: «Liveüberwachungen oder ein systematisches Erstellen von Bewegungsprofilen wie in China gibt es in der Schweiz nicht einmal ansatzweise», stellt er klar.
Zweifel bei der Strafrechtsprofessorin
Mit dieser Aussage geht Monika Simmler, Strafrechtsprofessorin an der Universität St. Gallen, einig: In der Schweiz gebe es eindeutig keine Rechtsgrundlage für einen präventiven Einsatz einer Gesichtserkennungssoftware – also eine Analyse von Bildmaterial durch die Polizei, ohne dass überhaupt eine Straftat stattgefunden hat. Es sei ebenfalls deutlich geregelt, wie die Polizei zu den auszuwertenden Daten komme. Die Polizei darf von beschuldigten Personen Handys und Computer beschlagnahmen. Sie darf auch Aufnahmen von privaten Überwachungskameras einfordern und verwerten.
Ob es der Polizei jedoch erlaubt ist, die erlangten Aufnahmen dann mit Hilfe einer Software für die automatisierte Gesichtserkennungsanalyse anstatt von reinem Auge auszuwerten, wie es die Kantonspolizei St. Gallen seit vergangenem Jahr tut, ist laut Simmler eine andere Frage. Die Strafrechtsprofessorin findet, die Polizei besitze dafür keine Rechtsgrundlage: «Im Strafrecht gilt das Legalitätsprinzip: Im Gesetz muss genau stehen, welche Grundrechtseingriffe Bürgerinnen und Bürger über sich ergehen lassen müssen. Ich habe die Strafprozessordnung hinsichtlich einer solchen Gesichtsvermessung eingehend geprüft – und keine einzige Norm gefunden, die auch mit viel Fantasie eine solche explizite Erlaubnis für diese Art der Zwangsmassnahme erteilt.» Simmler erzählt, sie habe diese Erkenntnis mit zahlreichen Kollegen aus der Wissenschaft diskutiert – und bis heute niemanden gefunden, der ihr widersprochen habe. Wie die Kantonspolizei St. Gallen zu einem anderen Urteil gelangte, kann sich Simmler nicht erklären. Anders als Stefan Helfenberger sieht Simmler in der Gesichtserkennung keinen Fortschritt für die Grundrechte: «Mit einem solchen Tool wird Ihr Gesicht von einer Maschine komplett vermessen und als Template abgelegt. Die Bearbeitung und Speicherung dieser biometrischen Daten stellt einen einschneidenderen Grundrechtseingriff dar, als wenn ein Polizist Ihr Gesicht einfach nur anschaut.»
«Dem Bürger bleibt
nichts anderes übrig,
als der Polizei zu vertrauen.»
Sie selbst fordere mit ihrer Kritik keineswegs ein Verbot einer solchen Technologie, präzisiert Simmler, die auch für die SP im St. Galler Kantonsrat sitzt. Als Bürgerin könne sie sich persönlich eine differenzierte Regelung vorstellen: Nicht jeden Einsatz verbieten, aber auch nicht alles erlauben. Es könne durchaus sein, dass ein Algorithmus zum Abgleich von Gesichtern im Rahmen polizeilicher Ermittlungen eines schweren Kriminaldelikts auch aus gesamtgesellschaftlicher Perspektive eine hilfreiche und wünschenswerte Kompetenzerweiterung sei – es obliege allerdings nicht der Polizei, sondern dem Gesetzgeber, diese Entscheidung zu treffen. Für Simmler ist klar: Im Rahmen des Strafprozessrechts müsste die Sache in der Schweiz auf Bundesebene geregelt werden. «Es kann nicht sein, dass ein Journalist bei der Kantonspolizei St. Gallen nachfragen muss, ob und wie Gesichtserkennung eigentlich eingesetzt wird. In einem Rechtsstaat müsste man das eigentlich im Gesetz nachschauen können», hält Simmler fest.
Abklärungen beim verantwortlichen Regierungsrat
Wir konfrontieren Fredy Fässler, St. Galler SP-Regierungsrat und Vorsitzender der Konferenz der kantonalen Justiz- und Polizeidirektorinnen und -direktoren (KKJPD), mit Monika Simmlers Vorwürfen. «Bis jetzt bin ich mit der Kantonspolizei der Meinung, dass wir ausreichende gesetzliche Grundlagen haben», meint Fässler. Er nehme die professorale Kritik aber ernst – keinesfalls wolle er, dass der Kantonspolizei der Vorwurf gemacht werden könne, sie habe in ihren Ermittlungen rechtswidrig gehandelt. Intern würde die Frage nun nochmals überprüft, sagt Fässler. Gemeinsam mit seinen Kollegen bei der KKJPD wolle er in den kommenden Wochen überprüfen, ob rechtlicher Handlungsbedarf bestehe.
Die Schweiz ist nicht China. Gesetzgebungen im Bereich des Datenschutzes sorgen dafür, dass eine präventive Allzeitüberwachung oder ein Datenhaufen à la Clearview hierzulande vorerst eine Fiktion bleiben – obwohl die Technologie solche dystopischen Einsätze mittlerweile ermöglichen könnte. Bis anhin hat in der Schweiz kaum eine gesellschaftliche Debatte darüber stattgefunden, in welcher Form die Behörden Algorithmen zur Analyse von Gesichtern beiziehen dürften. In einem sind sich sämtliche Gesprächspartner einig: Eine solche Debatte ist vonnöten.