Homo Data: Wenn der Mensch vorhersehbar wird
Yvonne Hofstetter, imago images / teutopress.

Homo Data: Wenn der Mensch vorhersehbar wird

Mittels massenhaft gesammelter Daten und künstlicher Intelligenz analysieren uns Tech-Konzerne und sagen unser Verhalten voraus. Sie gefährden damit das freiheitliche Men-schenbild, die Grundrechte und die Demokratie.

 

Smarte Häuser, Autos und Arbeitsplätze, Online-Plattformen von Instagram bis Netflix, Siri und Alexa, die Gesichtserkennung oder die Aktiv-App für Sozialhilfeempfänger – kurz: die «Umgebungsintelligenz» – sind integraler Bestandteil unserer Existenz geworden, die heute nicht mehr nur physisch, sondern auch digital ist. Die Werkzeuge analysieren unsere Bewegungen, Interaktionen und unser Denken und erstellen daraus Erwartungen über unser künftiges Verhalten – mit dem Versprechen, uns zu optimieren. Dafür nutzt die Umgebungsintelligenz einen Koffer voller Methoden: Sensoren überall, Dauerüberwachung bis tief in unser Privatleben hinein, mathematische Analysemodelle und automatische Stimuli der Nutzer. Erst sie ermöglichen das Geschäftsmodell der Optimierung, das uns Hoffnung und Träume verkaufen will. Doch die Gefahren für die Demokratie sind nicht zu unterschätzen.

Überwachen, analysieren, lenken

Umgebungsintelligenz nutzt künstliche Intelligenz. Dabei handelt es sich nicht um eine neue Technologie. Seit fünfundzwanzig Jahren werden Systeme der künstlichen Intelligenz zur militärischen Aufklärung und Lageanalyse genutzt. Ein bekanntes Beispiel ist das Awacs-Flugzeug. Mit seinen Sensoren überwacht das «fliegende Auge» den Luftraum und sammelt Daten. Um Luftfahrzeuge als zivil oder militärisch zu klassifizieren, verbindet das System alle gesammelten Rohdaten: Fluggeschwindigkeit, Radarrückstrahlfläche, zivile Flugpläne. Zuletzt folgt eine computerbasierte Handlungsempfehlung. «Datenfusion» heisst ein solch leistungsfähiges Computerprogramm, ein anderer Begriff für «Algorithmus». Beschrieben ist jener Algorithmus in der Sprache der Mathematik und realisiert mit künstlicher Intelligenz. Nur künstliche Intelligenz kann riesige Datenmassen strukturiert analysieren. Intelligente Datenfusionssysteme mit ihrem Dreiklang «überwachen – analysieren – lenken» sind nicht nur für die militärische Aufklärung nützlich, sondern die Basistechnologie für alle autonomen Systeme, von der Industrie 4.0 bis hin zum selbstfahrenden Auto.

Doch was ausser dem überstrapazierten Hype ist neu an künstlicher Intelligenz? Seit Jahren explodiert die Menge der verfügbaren unstrukturierten Daten wie Bilder, Texte oder Videos. Die wertvollsten darunter stammen von Menschen, von Personen, und nicht nur von Objekten wie unseren Industrieanlagen oder kritischen Infrastrukturen. Sie sind persönliche Daten, selbst wenn sie maschinell von unseren elektronischen Türschlössern, vernetzten Saugrobotern, intelligenten Kühlschränken oder smarten Wasserzählern stammen. Auch rücksichtslose Geschäftemacher, die unsere Daten absaugen, obwohl wir das nicht wollen, maximieren den Datenreichtum: Mit der alten Technik des Screen Scrapings hat die Firma Clearview von Webseiten, Blogs und Online-Plattformen ohne unser Wissen drei Milliarden Gesichter kopiert und verwendet sie zur Gesichtserkennung durch Polizeibehörden oder Regierungen. Sorglos geben wir so preis, was Folgen für unsere Zukunft hat. Nicht ein demokratisch kon­trollierter Rechtsstaat, sondern mächtige Technologieunternehmen sind über sämtliche Details unseres Lebens informiert. Sie wissen, wer unsere Freunde und Arbeitgeber sind, was wir in unserer Freizeit tun, wie viel Gesundheitsvorsorge wir betreiben und, sofern sie wie Apple oder Google über Banklizenzen verfügen, wie hoch unser Finanzbedarf ist.

«Für die demokratische Herrschaftsform

ist die Digitalisierung, wie sie sich

heute vollzieht, extrem schädlich.»

Es gibt kein gläsernes europäisches Menschenbild

Die intelligenten Maschinen des 21. Jahrhunderts sind also ein Game Changer. Das Alte in unserer Gesellschaft hält dieser zweiten maschinellen Revolution schon heute nicht mehr stand. Traditionelle Geschäftsmodelle wanken über alle Industrien und Branchen hinweg. Von der übergreifenden Unruhe, vom erzwungenen Paradigmenwechsel bleibt niemand verschont. Kreative Zerstörung ist das erklärte Ziel der Digitalisierer. Aber auch kreative Zerstörung ist Zerstörung. Was wie die maximale Freiheit aussieht, zerstört bewährte Strukturen, denn die Umgebungsintelligenz greift unser Menschenbild an. Es ist das Menschenbild, das die Charta der europäischen Grundrechte in Artikel 1 festschreibt: «Die Würde des Menschen ist unantastbar.» Die Überwachungsstrukturen der Umgebungsintelligenz setzen die Menschenwürde aufs Spiel und damit die Grundlage unserer demokratisch-freiheitlichen Gesellschaftsordnung.

Dem europäischen Menschenbild hat Immanuel Kant (1724–1804) einen theoretischen Rahmen verliehen. Der Mensch sei Teil der Schöpfung, steche aber durch seine Fähigkeiten zu Verantwortung und moralischem Verhalten daraus hervor. Als «Krone der Schöpfung» sei er (Rechts-)Subjekt – Träger von Rechten und Pflichten –, die übrige Schöpfung sei Objekt und dem Menschen untertan. Ihre rechtliche Berücksichtigung findet die Subjektivität des Menschen in Begriff und Ausgestaltung der Menschenwürde. Aus ihr gehen die Freiheitsrechte hervor, wie sie die EU-Charta garantiert, darunter das Recht auf die «negative Freiheit» – das Recht, in Ruhe gelassen zu werden –, die Privatsphäre und die Selbstbestimmung.

Jener Dualismus von Subjekt und Objekt ist es, den die Digitalisierungsapostel leugnen und aufheben wollen. «(Persönliche) Daten sind der Rohstoff des 21. Jahrhunderts», das Öl, das neue Gold der Wirtschaft, sagt uns die digitale Industrie. Dem schliesst sich die Politik in den Industrieländern mit Lobpreisungen an und verspricht einen neuen Schub des Wirtschaftswachstums. Big Tech, seine Lobby und seine Anhänger in Politik und Gesellschaft nehmen den Menschen nicht als Subjekt wahr, sondern als Objekt, als Rohstoffträger, der ausgebeutet und um seine Daten gebracht werden muss. Menschen sind die Ware der Datenindustrie, nicht ihre Kunden.1 Besondere Freiheitsrechte gelte es deshalb nicht zu beachten.

Und wir begeben uns freiwillig in die digitale Abhängigkeit. Unsere Lieblingsmarken, deren Apps wir unter «Profil» oft mit «Bitte einmal alles» einstellen, stammen noch immer zum überwiegenden Teil aus den USA und sind Exporte nach Europa. Sie wurzeln in einem anderen Verständnis des Wirtschaftens, einem anderen Verfassungs- und Rechtsverständnis, das nicht so recht auf unser europäisches Verständnis von Menschenwürde und sozialer Marktwirtschaft passen will. In der digitalen Goldgräberstimmung schiessen die amerikanischen digitalen Angebote deshalb auch schnell über das Ziel hinaus, wo das Geschäftsmodell «Überwachung» millionenfach die Grundrechte europäischer Bürger verletzt. Doch solange sie Umsatz und Gewinn versprechen, werden auch nach europäischem Verständnis rechtswidrige Geschäftsideen mit grosser Leidenschaft verteidigt. Die Macht dazu schöpfen die Technologiegiganten aus ihrer enormen Liquidität. Allein die Top 5 der Internetunternehmen verfügen über freie Geldmittel in Billionenhöhe.

Wenn der Arm des Gesetzes schon präventiv zugreift

Eine Zeitenwende könnten die Ereignisse des Jahres 2016 eingeläutet haben. Im Juni 2016 erklärten die Briten den Ausstieg aus der EU, und im November 2016 wurde Donald Trump zum 45. Präsidenten der Vereinigten Staaten von Amerika gewählt. Was, so fragen sich seitdem selbst die Nerds ohne jede politische Kultur, haben Digitalisierung, die totale Vernetzung der Welt zum Internet of Everything, riesige Datenmengen und künstliche Intelligenz mit dem Populismus und der zunehmenden Wut in der Gesellschaft zu tun?

Ganz offensichtlich ist die fortschreitende Umgebungsintelligenz keine abgekapselte technologische Entwicklung mehr, die für sich alleine steht, ohne Einfluss auf die Gesellschaft zu nehmen. Statt «nur» das Grundrecht auf Privatsphäre zu verletzen, treten die neuen Technologien immer deutlicher auch in Konflikt mit anderen Freiheitsrechten der Bürger. Das datenbasierte Profiling, mit dem Menschen aufgrund ihres Verhaltens kategorisiert werden, um Mutmassungen über ihr zukünftiges Verhalten anzustellen, verletzt das Antidiskriminierungsverbot bzw. das Recht auf Gleichheit. Dabei begehen längst nicht mehr nur die privaten Wirtschaftsunternehmen den Sündenfall, sondern auch staatliche Institutionen. Polizeibehörden in Chicago und Grossbritannien greifen auf Facebookdaten der Nutzer zu, fusionieren sie mit Bewegungsdaten der Touristen-App Foursquare und eigenen Datenbeständen und berechnen daraus die Wahrscheinlichkeit, mit der ein Bürger in naher Zukunft straffällig werden wird (Predictive Policing). Betroffene erhalten die schriftliche Aufforderung ihrer Polizeibehörde, sich gesetzeskonform zu zeigen, andernfalls träfe sie der Arm des Gesetzes mit voller Wucht – wohlgemerkt, ohne dass der Betroffene eine Straftat begangen hätte. Aber vielleicht wird er ja in der Zukunft straffällig – darauf weist der Algorithmus hin. Mit dem Rechtsstaat ist ein solches Vorgehen nicht vereinbar.

Weil besonders Chicago dafür bekannt ist, auch ohne Softwareeinsatz mehr Afroamerikaner als Weisse zu inhaftieren, verfügen die Rohdaten, die einer künstlichen Intelligenz für das Profiling von Straftätern vorgelegt werden, selbst über eine Voreingenommenheit, ein Vorurteil. Die Rohdaten amerikanischer Polizeibehörden sind also keineswegs objektiv, sondern behaupten: Afroamerikaner werden häufiger straffällig als weisse Bürger. Das Vorurteil setzt sich in der Datenfusion und bis zur Bewertung des Betroffenen mit einem Score, einer zahlenmässigen Beurteilung des Bürgers, fort. Genauso richtig könnte man schreiben: mit einer zahlenmässigen Verurteilung. Umgebungsintelligenz eta­bliert also nicht nur Rassismus, sondern hebelt auch das Recht des Betroffenen auf einen fairen Prozess aus. Eine smarte Maschine hat ihr Urteil bereits gefällt. Und die Maschine, so wir Technikgläubigen, hat immer recht.

Zu weit geht vielleicht auch derjenige, der algorithmische Profile von Bürgern für eigene politische Kampagnen nutzt, weil die hohe Granularität persönlicher Daten auf das künftige Wahlverhalten der Bürger schliessen lässt. Schon unter US-Präsident Barack Obama wurden Bürger auf der Basis solch detaillierter Psychogramme in Gruppen eingeteilt, je nach der Wahrscheinlichkeit, mit der sie Obama wählen oder unterstützen würden. Eine solche Datenfusion arbeitet mit mathematischen Modellen und Variablen, die Einfluss auf eine persönliche Wahlentscheidung haben.

Dazu zählen Faktoren, die online direkt beobachtbar sind: Freizeitaktivitäten, berufliche oder private Interessen, Suchhistorien, Likes, Online-Einkäufe. Solche Daten kann man kaufen – etwa von i360, einem Unternehmen, das dem amerikanischen Milliardär Charles Koch gehört. Auf die latenten Variablen, die nicht beobachtbar sind, schliessen dann digitale Techniken, allen voran die künstliche Intelligenz. Nicht beobachtbar, aber eben dennoch neue relevante Information für den Datenanalysten sind die unbewussten Denkprozesse, Vorurteile oder Emotionen eines Wählers. Von ihnen lässt sich sein wahrscheinlichstes Wahlverhalten prognostizieren. Das gilt es dann gezielt zu beeinflussen.

2012, sagen Experten, habe Obama mit Hilfe der Datenfusion rund vier Prozentpunkte hinzugewonnen. 2016, davon gehen viele Analysten aus, habe diese Form der Datenanalyse und gezieltes Kampagnenmanagement das Brexit-Referendum beeinflusst und zur Wahl des Aussenseiters Donald Trump zum US-Präsidenten geführt. Ganz nüchtern muss man schliessen: Wenn per Datenfusion die vorausschauende Wartung von Industrieanlagen, Wettervorhersagen oder Marktprognosen möglich werden, ist der Mensch selbst nur ein weiterer Gegenstand der Prognosefähigkeit der Mathematik.

«Sie wissen, wer unsere Freunde und Arbeitgeber sind,

was wir in unserer Freizeit tun, wie viel Gesundheitsvorsorge

wir betreiben und wie hoch unser Finanzbedarf ist.»

«Tausche Wahrheit gegen Werbung»

Dass die überschiessende Umgebungsintelligenz nicht nur die Freiheit des einzelnen, sondern die gesamte freiheitlich-demokratische Grundordnung bedroht, manifestiert sich besonders deutlich in der Verletzung der Meinungsfreiheit durch die sozialen Medien. Dass soziale Medien die Meinungsfreiheit einschränken, scheint auf den ersten Blick nicht einleuchtend. Doch bei genauerem Hinsehen entpuppen sich soziale Medien als technologiebasierte Werbebühnen amerikanischer Konzerne. Nur wer sich den Regeln der Konzerne unterordnet, darf teilhaben. Werbeplattformen sind also exklusiv im Sinne von «nicht inklusiv»; sie verweigern denen die Teilhabe, die sich weigern, ihre Privatsphäre gegenüber der Plattform aufzugeben und sich durchs ganze Internet verfolgen zu lassen sowie sämtliche Rechte an allen Inhalten, also den Bild- und Sprachwerken, ohne Gegenleistung an die Technologiegiganten abzutreten. Gegen derart autoritär anmutende Teilnahmeregeln ist zunächst nichts einzuwenden, denn Wirtschaftsunternehmen sind nicht der Staat, gegen den sich das grundgesetzlich verankerte Abwehrrecht gegen Eingriffe in die Meinungsäusserungsfreiheit allein richtet.

Hochproblematisch hingegen ist der Umstand, dass wir Konsumenten in den letzten Jahren ausgerechnet die Werbebühnen amerikanischer Konzerne zum Dreh- und Angelpunkt unserer Meinungsfreiheit auserkoren haben. Gemittelt über die Weltbevölkerung suchen 55 Prozent der Onliner über Suchmaschinen, soziale Medien und Informationsportale nach Nachrichten – also bei den Anbietern, die Algorithmen für die Nachrichtenauswahl und -anzeige einsetzen.2 Allein die Maschine bestimmt, was die Nutzer auf Basis ihres Profils sehen. Künstliche Intelligenzen klassifizieren Nachrichten als relevant für einen Nutzer und zeigen ihm nur die Information an, von der sie «glauben», «denken», «annehmen» – alles kognitive Fähigkeiten –, der Nutzer interessiere sich für nichts anderes und sollte nur sie lesen. Der Effekt: die vielzitierten Filterblasen oder Echokammern. Sie sind persönliche Informationsgummizellen, in denen der Nutzer nur um sich selbst und seine eigenen Interessen kreist und aus denen kein Fenster, keine Tür nach aussen in die Wirklichkeit führen. Doch auf Werbeplattformen sind Wirklichkeit und Tatsachen ohnehin nur Störfaktoren.

Die mit Hilfe von künstlicher Intelligenz erzeugte hochgradige Individualisierung von «Nachrichten» führt zu einer fragmentierten Gesellschaft, in der jeder einzelne eine völlig andere Wahrnehmung der Wirklichkeit hat als sein Nachbar. Zwischen beiden tritt eine Kommunikationsstörung auf. Wer den gemeinsamen Blick nicht mehr hat, kann nicht mehr gemeinsam als «Welt» – so nennt die politische Theoretikerin Hannah Arendt den politischen Raum – auftreten und handeln. Soziale Medien vereinzeln die Bürger, und Vereinzelung entmachtet sie, weil gemeinsames Eintreten für gemeinsame Interessen nicht mehr möglich ist. Eine entmachtete Masse von Individualmeinungen bildet zudem die Voraussetzung für den Aufstieg autoritärer, diktatorischer Herrschaftsformen.

Die Gefahr besteht, dass aus dem Chaos der Individualmeinungen jemand hervortritt, der mit schlichten Parolen Heilung verspricht – wie es die Populisten weltweit tun, die sich besonders dadurch auszeichnen, dass sie die Klaviatur der sozialen Medien mit Klassifizierung, Individualisierung und Filterblase perfekt zu beherrschen scheinen. Die Nerds haben ein richtiges Gefühl, und die politische Theorie liefert die Begründung: Soziale Medien verändern die demokratische Gesellschaft tatsächlich, weil ihre künstlichen Intelligenzen Information stark individualisieren und auf diese Weise im politischen Umfeld Gesinnungen bewirken und verstärken. Hinzu kommen Hass, Mobbing und Drohungen, die die Pluralität der Stimmen im Netz noch weiter einschränken, weil sie Menschen davon abschrecken, ihre Meinung einzubringen und zu vertreten. Doch nur demokratisierte Medien, die auch Minderheiten zu Wort kommen lassen, verhelfen einer Gesellschaft zu einer gesunden Demokratie.

Die Politik am Scheideweg

Dringendste Aufforderung an die Politik ist, die Grundrechte der Person, ihre Würde und ihre Freiheiten auch in Zeiten zunehmender Umgebungsintelligenz zu verteidigen. Zu den besonders gefährdeten Rechten gehören die Privatsphäre und die Freiheit auf digitale Abstinenz, die nicht zu Diskriminierung führen darf. Sie ist nicht weniger als die demokratische Alternative zur digitalen Partizipation. Auch Kontrollrechte über unsere persönlichen Daten fallen in den Schutzbereich eines digitalen Grundgesetzes: Wer persönliche Daten für sein Geschäftsmodell nutzt, muss Auskunft geben, was er mit den Daten vorhat, wo und wie lange er sie speichert, welche Schlüsse er aus ihnen zieht, ob und wohin er sie weiterverkauft.

Die Europäische Datenschutzgrundverordnung, die im Mai 2018 für alle EU-Staaten in Kraft getreten ist und vom Staat Kalifornien kopiert wurde – dort ist ein ähnliches Regelwerk seit diesem Jahr in Kraft –, will digitale Grundrechte teilweise gewährleisten. Dabei ist die EU-Verordnung nur ein einzelner Regulierungsansatz und nicht in der Lage, die gesellschaftlichen Folgen der Massendatenverarbeitung durch künstliche Intelligenz vollumfänglich zu bewältigen. Man darf daher auch künftig mit schwerwiegenden Pro­blemen rechnen, besonders mit heute noch unbekannten Wechselwirkungen zwischen neuen digitalen Technologien, ihren Geschäftsmodellen und der Gesellschaft. Nach den Erfahrungen mit den Wahlen in den USA und der Brexit-Abstimmung im Jahr 2016 gilt es deshalb die Naivität gegenüber der Digitalisierung ganz abzulegen, statt ihren Begleitideologien auf den Leim zu gehen. Für die demokratische Herrschaftsform ist die Digitalisierung, wie sie sich heute vollzieht, extrem schädlich. Im Vergleich zu den Visionen und Ansprüchen einer Digitalisierungselite ist die Demokratie eine seit der Antike gereifte Entwicklung, in der sich Gesellschaften frei und ungehindert entwickeln konnten. Mit Blick auf die Geschichte Europas im 20. Jahrhundert darf man getrost sagen: Es gilt an der Demokratie festzuhalten. Deshalb hat sie trotz und gerade wegen der Umgebungsintelligenz nur die besten und leidenschaftlichsten Verteidiger verdient.

  1. Lanier, Jaron: Wem gehört die Zukunft? Auf dem Titelbild der 5. Auflage, 2014. Hamburg: Hoffmann- & Campe-Verlag.

  2. Newman, Nic; Fletcher, Richard; Kalogeropoulos, Antionis; Nielsen, Rasmus Kleis: Reuters Institute Digital News Report, 2019, S. 13. Oxford: Reuters Institute for the Study of Journalism.

«MONAT für MONAT
eine sinnvolle Investition.»
Heinz Zimmermann, Professor für Finanzmarktökonomie,
über den «Schweizer Monat»