Der Mensch wird zum Datenpunkt

Algorithmen können die Freiheit gefährden und Personen manipulieren. Die Diskussion darüber darf nicht unterdrückt werden.

Der Mensch wird zum Datenpunkt
Dirk Helbing (links), Thomas Beschoner (mitte), Peter Seele (rechts), zvg.

 

Big Data und Algorithmen sind zu mächtigen Instrumenten geworden, mit denen man Prozesse und Entscheidungen effizient und regelbasiert organisieren kann. Das kann durchaus vorteilhaft sein, beinhaltet jedoch mitunter durchaus ernsthafte Probleme, die systematischer Natur sind. Denn algorithmische Systeme, die für einen bestimmten Kontext – etwa Lieferketten – entwickelt wurden, werden oft auf andere Objekte und Prozesse verallgemeinert und übertragen, auch auf Menschen und andere Lebewesen. So kommen algorithmische Systeme beispielsweise im Smart Farming und in der Tierzucht zum Einsatz. Und mehr noch: Zunehmend werden Algorithmen sogar als Instrumente genutzt, welche die Organisation des menschlichen Zusammenlebens regeln.

«Code is law», sagt man oft und meint: Software bestimmt, was in unserer Gesellschaft noch möglich ist und was nicht. Von der Hotel- bis zur Flugbuchung und vom Onlineshopping über die Informations- und Jobsuche bis zur Partnerbörse ist nun alles datafiziert und personalisiert. Immer effektiver werden wir dazu gebracht, bestimmte Produkte zu kaufen, Gefühle und Meinungen zu haben und politische Parteien zu wählen. Stichwort: «Big Nudging». Die Manipulationsmethoden sind oft so subtil, dass wir sie gar nicht bemerken. Und doch beeinflussen sie unser Handeln, unser Leben und unsere Gesellschaft immer stärker, und zwar so, wie die «sozialen Ingenieure», die in digitalen Kontrollräumen von Big-Tech-Firmen und Geheimdiensten sitzen, es gerne hätten. All das geschieht mit sensiblen persönlichen Daten, die von Unternehmen und Staaten über uns oft mit spionageähnlichen Methoden gesammelt wurden. Hier kommen vor allem drei Methoden zum Einsatz: «Profiling», «Scoring» und «Targeting». Dabei werden Menschen zunehmend wie Dinge, Datenpunkte oder eben wie Tiere behandelt. Es mehren sich die Zweifel, dass der Einsatz derartiger Technologien mit der Menschenwürde und dem Verständnis einer freiheitlichen Gesellschaft vereinbar ist, berühren sie doch den Kern demokratischer Verfassungen und zentrale Prinzipien der UNO-Menschenrechtscharta. Wo liegt das Problem?

  1. Überwachung: Spätestens mit dem von den USA ausgehenden «War on Terror» hat die digitale Massenüberwachung weltweit um sich gegriffen. «Predictive Policing», also die Ermittlung und Verfolgung möglicher Straftäter, sogar bevor sie überhaupt straffällig geworden sind, hat sich international verbreitet. Das ursprünglich für die Terrorfahndung entwickelte Instrument wird nun auch von der Polizei verwendet. Das Problematische daran ist: Die Software behandelt jeden Menschen wie einen potentiellen Verbrecher. Die rechtsstaatliche «Unschuldsvermutung» wurde im Prinzip durch eine «Schuldvermutung» abgelöst.
  1. Fehlerhaftigkeit: Oft sind die Fehlerraten der eingesetzten Algorithmen hoch. Sie können über 95 Prozent liegen. Mit anderen Worten: Auf den Listen von Verdächtigen befinden sich viele Unschuldige. Predictive Policing wird daher unter Fachleuten immer kritischer gesehen. Trotz allem ist das «Profiling», also die Erstellung von hochdetaillierten persönlichen Profilen auf der Basis sensibler persönlicher Daten, weit verbreitet, auch in der Werbeindustrie. Inzwischen versucht man bereits, «digitale Zwillinge» zu erzeugen, die ein lebendiges digitales Abbild unserer selbst sein sollen. Sie…
«Jeden Monat frische Denküberraschungen! Eine gehaltvolle und elegant gestaltete Zeitschrift.»
Francis Cheneval, Professor für politische Philosophie,
über den «Schweizer Monat»