Der Mensch wird zum Datenpunkt

Algorithmen können die Freiheit gefährden und Personen manipulieren. Die Diskussion darüber darf nicht unterdrückt werden.

Der Mensch wird zum Datenpunkt
Dirk Helbing (links), Thomas Beschoner (mitte), Peter Seele (rechts), zvg.

 

Big Data und Algorithmen sind zu mächtigen Instrumenten geworden, mit denen man Prozesse und Entscheidungen effizient und regelbasiert organisieren kann. Das kann durchaus vorteilhaft sein, beinhaltet jedoch mitunter durchaus ernsthafte Probleme, die systematischer Natur sind. Denn algorithmische Systeme, die für einen bestimmten Kontext – etwa Lieferketten – entwickelt wurden, werden oft auf andere Objekte und Prozesse verallgemeinert und übertragen, auch auf Menschen und andere Lebewesen. So kommen algorithmische Systeme beispielsweise im Smart Farming und in der Tierzucht zum Einsatz. Und mehr noch: Zunehmend werden Algorithmen sogar als Instrumente genutzt, welche die Organisation des menschlichen Zusammenlebens regeln.

«Code is law», sagt man oft und meint: Software bestimmt, was in unserer Gesellschaft noch möglich ist und was nicht. Von der Hotel- bis zur Flugbuchung und vom Onlineshopping über die Informations- und Jobsuche bis zur Partnerbörse ist nun alles datafiziert und personalisiert. Immer effektiver werden wir dazu gebracht, bestimmte Produkte zu kaufen, Gefühle und Meinungen zu haben und politische Parteien zu wählen. Stichwort: «Big Nudging». Die Manipulationsmethoden sind oft so subtil, dass wir sie gar nicht bemerken. Und doch beeinflussen sie unser Handeln, unser Leben und unsere Gesellschaft immer stärker, und zwar so, wie die «sozialen Ingenieure», die in digitalen Kontrollräumen von Big-Tech-Firmen und Geheimdiensten sitzen, es gerne hätten. All das geschieht mit sensiblen persönlichen Daten, die von Unternehmen und Staaten über uns oft mit spionageähnlichen Methoden gesammelt wurden. Hier kommen vor allem drei Methoden zum Einsatz: «Profiling», «Scoring» und «Targeting». Dabei werden Menschen zunehmend wie Dinge, Datenpunkte oder eben wie Tiere behandelt. Es mehren sich die Zweifel, dass der Einsatz derartiger Technologien mit der Menschenwürde und dem Verständnis einer freiheitlichen Gesellschaft vereinbar ist, berühren sie doch den Kern demokratischer Verfassungen und zentrale Prinzipien der UNO-Menschenrechtscharta. Wo liegt das Problem?

  1. Überwachung: Spätestens mit dem von den USA ausgehenden «War on Terror» hat die digitale Massenüberwachung weltweit um sich gegriffen. «Predictive Policing», also die Ermittlung und Verfolgung möglicher Straftäter, sogar bevor sie überhaupt straffällig geworden sind, hat sich international verbreitet. Das ursprünglich für die Terrorfahndung entwickelte Instrument wird nun auch von der Polizei verwendet. Das Problematische daran ist: Die Software behandelt jeden Menschen wie einen potentiellen Verbrecher. Die rechtsstaatliche «Unschuldsvermutung» wurde im Prinzip durch eine «Schuldvermutung» abgelöst.
  1. Fehlerhaftigkeit: Oft sind die Fehlerraten der eingesetzten Algorithmen hoch. Sie können über 95 Prozent liegen. Mit anderen Worten: Auf den Listen von Verdächtigen befinden sich viele Unschuldige. Predictive Policing wird daher unter Fachleuten immer kritischer gesehen. Trotz allem ist das «Profiling», also die Erstellung von hochdetaillierten persönlichen Profilen auf der Basis sensibler persönlicher Daten, weit verbreitet, auch in der Werbeindustrie. Inzwischen versucht man bereits, «digitale Zwillinge» zu erzeugen, die ein lebendiges digitales Abbild unserer selbst sein sollen. Sie werden für virtuelle Experimente genutzt, mit denen man herauszufinden versucht, wie man unser Denken und Verhalten – und in Zukunft auch unsere Gesundheit – am effektivsten manipulieren kann. Doch sind die digitalen Zwillinge wirklich präzise? Oder etwas, das der Wirklichkeit zum Verwechseln ähnlich sieht, aber eben doch nicht realistisch ist? Und ist es ethisch, sie auf diese Weise zu verwenden? 
  1. Diskriminierung: Nicht immer geht es um Verbrecher oder Verdächtige, von denen eine potentielle Gefahr ausgehen könnte. Gesichtserkennung, Chat-Bots, Legal Tech (also Software, die zur Automatisierung im Rechtswesen verwendet wird) und Algorithmen zur Vorauswahl von Job-Bewerberinnen und -Bewerbern sind in letzter Zeit zunehmend in Verruf geraten. Es stellte sich heraus, dass die zugrunde liegenden Big-Data- und KI-Systeme oft rassistische oder anderweitig diskriminierende Klassifizierungen vornehmen und darauf basierend Entscheidungen vorschlagen. Die Gefahr von Bias, von Verzerrungen ist gross. Schlimmer noch: «Scoring», also die Einordnung von Menschen auf einer Punkteskala, führt bewusst eine unterschiedliche Wertigkeit von Kundinnen und Kunden ein. Zunehmend entscheiden Zahlen wie der «Customer Lifetime Value» darüber, wer welche Produkte und Services zu welchem Preis offeriert bekommt – oder überhaupt angeboten bekommt. Das impliziert Diskriminierung. Der Social-Credit-Score entscheidet im Prinzip sogar, wer welche Rechte hat. Besonders die Behandlung der Uiguren in China wurde international scharf kritisiert. Das Überwachungsprogramm «Karma Police» des britischen Geheimdiensts GCHQ und auch das österreichische Triagesystem für Arbeitslose wurden für die Verletzung geltenden Rechts verurteilt.
  1. Entmenschlichung: Die genannten Entwicklungen treiben eine Dehumanisierung voran. Menschen werden zunehmend wie Roboter, Dinge oder Daten behandelt. Qualitäten wie Menschenwürde, Bewusstsein, Liebe, Freiheit und Kreativität, die für uns Menschen von grosser Bedeutung sind, werden tendenziell vernachlässigt. Sie sind nicht angemessen durch Daten erfassbar und werden daher oft ignoriert. Eine datengetriebene Gesellschaft droht somit wichtige Qualitäten zu verlieren. Die auf der Basis von Zahlen erschaffene, vermeintlich optimale Welt kann so schnell ins Unmenschliche und Dystopische kippen.
  2. Gefährlichkeit: «Profiling» und «Scoring» liegen dem «Targeting» zugrunde – einer Methode, mit der man Individuen mit bestimmten Eigenschaften gezielt in den Blick, um nicht zu sagen ins Visier nimmt. Oft löst dies eine Sonderbehandlung aus: eine personalisierte Werbung, die den Kauf eines Produktes oder einer Dienstleistung bewirken soll, die Manipulation von Menschen mit bestimmten Persönlichkeitsmerkmalen in Richtung gewünschter Wahlentscheidungen, die Tarif- oder Preisgestaltung für eine Versicherung und so weiter. Targeting kann aber auch eine auf fragwürdigen Verallgemeinerungen beruhende Verdächtigung von Personen zur Folge haben oder die Triage von Patientinnen und Patienten in Krankenhäusern, also Entscheidungen über Leben und Tod. Und: Targeting kann man zur Mobilisierung von Menschen nutzen, deren Sensibilität für bestimmte Themen ermittelt wurde. Das als «Footfall» bekannte Phänomen wird insbesondere genutzt, um Protestbewegungen zu initiieren, die bisweilen auch gewalttätig enden können. Selbst mit wenigen persönlichen Daten sind daher gefährliche Anwendungen möglich.

Was also tun? In der Konsequenz brauchen wir eine neue, eine bessere Digitalisierung. Eine, die Menschenrechte und Menschenwürde schützt und uns in einer freiheitlichen Gesellschaft bestmögliche Entfaltungsmöglichkeiten bietet. Sie sollte den Menschen ins Zentrum stellen, kreatives, soziales und umweltfreundliches Handeln unterstützen. Digitale Plattformen und Anwendungen erfordern daher ein wertesensitives Design. Am Ende der Frage nach der Gestaltung der Digitalisierung steht nichts weniger auf dem Spiel als die Frage nach der Souveränität, und zwar sowohl von Personen als auch von demokratisch legitimierten Institutionen.

«Sympathisch elitär, aber nie hochnäsig!
Die Kollegen beim MONAT wissen,
dass der liberalen Haltung ein Schuss Ironie gut bekommt.»
Rainer Hank, «FAZ»-Kolumnist,
über den «Schweizer Monat»