Ausgabe 15 / Februar 2020

Das kalte Paradies

Dirk Helbing, Professor für Computational Social Science an der ETH Zürich, spricht über die Ära der Digitalisierung und die Herausforderung, deren Möglichkeiten zum Vorteil der Zivilgesellschaft zu nutzen

Dirk Helbing im Interview mit Manuela Lenzen

Manuela Lenzen: Herr Helbing, wie sind Sie als Physiker an die Fakultät für Geistes-, Sozial- und Politikwissenschaften geraten?

Dirk Helbing: Ich wollte das Universum im Großen und im Kleinen verstehen. Deshalb wollte ich in Göttingen Elementartteilchenphysik und Astrophysik studieren. Doch dann begann ich mich für Chaostheorie und Selbstorganisation zu interessieren, und es geschah etwas, das mich stark beeinflusst hat: Es gab damals in Göttingen eine rechtsextreme und eine linksextreme Szene und die kamen sich immer wieder in die Quere. Einmal schritt die Polizei ein und verfolgte vor allem die Autonomen. Sie setzte Tränengas ein. Eine Frau flüchtete, rannte mit Tränengas in den Augen vor ein Auto und starb. Das hat die ganze Stadt aufgebracht, es gab eine riesige Demonstration und öffentliche Diskussionen, was in solchen Zeiten zu tun sei. Ich hatte das Gefühl, alle reden aneinander vorbei, und dachte, das muss man wissenschaftlich angehen und erst einmal die Begriffe definieren. Dann könnte man Modelle entwickeln und daraus Schlussfolgerungen ziehen.
Damals stand ich kurz davor, das Physikstudium an den Nagel zu hängen, um Psychologie und Soziologie zu studieren, beschloss dann aber, Physik und Sozialwissenschaften zu kombinieren. Damit habe ich das Feld mit auf den Weg gebracht, das heute Soziophysik heißt. Zuerst habe ich über Fußgängerdynamik gearbeitet und hatte die Idee, Fußgängerströme wie Gase oder Flüssigkeiten zu analysieren. Das Soziale-Kräfte-Modell, das daraus entstanden ist, wird inzwischen weltweit verwendet. Danach habe ich mich mit Meinungsbildung, Migration und Verhaltensänderungen befasst. So bin ich zu den Sozialwissenschaften gekommen, zur Computational Social Science, genau gesagt.

ML: In Ihrer Forschung modellieren und simulieren Sie bis heute soziale Prozesse. Wie hat sich die Disziplin im Zeitalter der Daten entwickelt?

DH: Das Modellieren war immer ein bisschen eine Kunst. Man muss kreativ sein und ein passendes mathematisches Framework finden, um Prozesse gut zu beschreiben. Dafür haben wir oft Multiagentensysteme verwendet, die Individuen oder Autos durch Computer-„Agenten“ mit bestimmten Eigenschaften ersetzten. Dann konnte man am Computer simulieren, was geschieht, wenn Fußgänger oder Autos oder Leute, die sich ihre Meinung bilden, interagieren. Daten zu sammeln, um Modelle zu testen und zu entwickeln, war damals noch teuer und zeitaufwendig. Dann jedoch kam Big Data: Google, Facebook, Amazon etc., die das Verhalten von hunderten Millionen Menschen erfassen – und künstliche Intelligenz, die Muster in den Daten aufspürt.

ML: Das macht die Forschung leichter?

DH: Zum Teil. Doch das Problem ist, dass die Wissenschaft auf viele dieser Daten keinen Zugriff hat. Unsere Aufgabe als Wissenschaftler ist es ja, einen Beitrag zur Verbesserung der Welt zu leisten und zu Innovationen beizutragen, die ökonomische Prosperität und gesellschaftlichen Fortschritt ermöglichen; außerdem zu beurteilen, was die Potenziale und Risiken von solchen Technologien sind, und wenn nötig die Öffentlichkeit zu informieren und auch zu warnen. Doch da fast nur Unternehmen und Geheimdienste Zugang zu diesen Datenmengen haben, ist es schwer zu beurteilen, was damit gemacht wird, welche Gefahren lauern und auch, welche Gelegenheiten ungenutzt bleiben.

ML: Was meinen Sie mit ungenutzten Gelegenheiten?

DH: Wir erleben gerade eine Nachhaltigkeitskrise, das heißt, dass wir die Ressourcen überbeanspruchen. Das ist ein existenzielles Problem: Es geht um Leben und Tod. Da könnte man meinen, wir tun jetzt alles, um dieses Problem zu entschärfen, insbesondere geben wir unseren klügsten Köpfen in der Wissenschaft Zugang zu den Daten, damit man sehen kann, was sich tun lässt, um die Welt zu retten. Doch genau das passiert nicht. Dies zeigt, dass es hier um Partikularinteressen geht und nicht um die Menschheit. Da läuft etwas ziemlich schief.

ML: Was geschieht denn mit den Daten?

DH: Viele sind sich dessen nicht bewusst, aber im Grund genommen wurde für jeden von uns eine lernfähige Black Box geschaffen, die mit Überwachungsdaten gefüttert wird. Und diese Black Box lernt, sich so ähnlich zu verhalten wie wir. Es sind quasi digitale Doubles. Mit diesen kann man dann Computerexperimente machen. Man kann testen, mit welchen Informationen man sie konfrontieren muss, damit sie z. B. ihre Meinung auf eine bestimmte Weise verändern, eine bestimmte Partei wählen, ein bestimmtes Produkt kaufen. Und dann kann man die entsprechende Information nutzen, um die Menschen zu manipulieren.
Das Datensammeln schafft auch ganz neue Möglichkeiten der Überwachung. Wir haben ja das Problem, dass ständig Trojaner und Computerviren versuchen, in unsere Computer und andere Systeme einzudringen. Man hat dafür Cybersecurity-Zentren geschaffen, die versuchen, Gefahrenherde einzuschätzen. Die Gefahr kann von Staaten ausgehen, von kleinen Softwarebuden oder von Individuen. Jeder könnte eine versteckte Agenda haben. Und dementsprechend werden auch alle verdächtigt. Um die Gefahrenpotenziale einzuschätzen, werden unglaublich viele Daten über jeden gesammelt.

ML: Aber wenn man doch nichts zu verbergen hat …

DH: Das ist hochgradig naiv. Darum geht es in erster Linie gar nicht. Je mehr man über uns weiß, desto leichter kann man uns manipulieren, die Meinungen, die wir haben, die Preise, die wir bezahlen. Wenn man bei jeder Information prüfen muss, ob man betrogen wird, braucht man unendlich viel Zeit. Je mehr Informationen auf uns einströmen, desto mehr sind wir gezwungen zu tun, was uns vorgeschlagen wird. Wir werden zunehmend extern gesteuert.

ML: Von Unternehmen oder staatlichen Stellen?

DH: Seit Edward Snowden ist bekannt, dass das Hand in Hand geht. Damals hieß es, über eine Million Menschen hätten dieselbe Sicherheitsfreigabe wie Snowden. Es gibt also sehr viele Menschen in Geheimdiensten und Firmen, die auf diese Daten zugreifen. Der Staat sagt, wir brauchen die Daten von den Firmen – aus Sicherheitsgründen. Doch offenbar wäscht eine Hand die andere. Das ist hochproblematisch, weil sich hier Unternehmen und staatliche Institutionen gegenseitig ermächtigen und sich über die Bürgerinnen und Bürger erheben. Cybersecurity-Zentren sind moderne Stasizentralen. Es werden zigtausendmal mehr Daten über jeden von uns gesammelt als damals von der Stasi. Ich kann mir nicht vorstellen, dass das demokratisch ausreichend kontrolliert wird – oder kontrolliert werden kann. Da gibt es ein riesiges Missbrauchspotenzial. Man hat ja gesehen, wie schnell nach dem Putsch in der Türkei Tausende identifiziert und verhaftet wurden – darunter auch Hunderte Wissenschaftlerinnen und Wissenschaftler, also nicht etwa Terroristen.

ML: Und was ist mit den Cyberkriminellen?

DH: Die Big-Data-Verfahren sind nicht gut genug, um Terroristen oder Kriminelle sicher aufzuspüren. Die Daten eines jeden, der heute mit dem Flugzeug reist, werden durch eine Datenbank gejagt und beurteilt. Doch etwa 97 Prozent der Alarme, die die Systeme auslösen, sind Fehlalarme. Das zeigt, wie ungenau und problematisch solche Big-Data-Anwendungen sind, trotz der riesigen Datenmengen.

ML: Warum sind diese Verfahren nicht besser?

DH: Die Vorstellung, dass sie immer besser werden, wenn man nur mehr Daten hat, ist einfach falsch. Je mehr Daten es gibt, desto mehr Muster tauchen in diesen Daten auch zufällig auf. Das sind die Scheinkorrelationen. Die Gefahr ist, dass wir sie mithilfe von KI-Anwendungen zur Gesellschaftssteuerung in Kausalitäten verwandeln. Das kann dann dazu führen, dass bestimmte Bevölkerungsgruppen diskriminiert werden. Wird in bestimmten Stadtvierteln häufiger kontrolliert, fallen mehr Straftaten auf, und schon ist jeder, der in einem solchen „Kriminalitätshotspot“ lebt, verdächtig. Die Menschen werden noch öfter kontrolliert und empfinden die Polizei nicht mehr als Freund und Helfer. Da geht der Glaube an den Rechtsstaat verloren.
Wie weit das gehen kann, zeigt China mit seinem Scoring-System: Da geht es um die Beurteilung des ganzen Lebens. Welche Videos man ansieht, welche News man liest, ob man sich um Eltern kümmert, die Regierung kritisiert oder bei Rot über die Straße geht: Für alles gibt es Plus- oder Minuspunkte. Am Ende resultiert ein Score, von dem abhängt, welche Jobs man bekommen kann, ob man mit dem Schnellzug fahren darf und wie schnell das Internet ist. So werden die Bürger in digitale Untertanen verwandelt.

ML: Das klingt finster. Sehen Sie auch Chancen in der Welt von Digitalisierung und Big Data?

DH: Ja natürlich! Es ist wie mit jeder Innovation: Es gibt gute und schlechte Anwendungen. Wir könnten einen historischen Fortschrittsschub erleben, technisch und kulturell. Wir könnten die Organisation der Gesellschaft neu erfinden, das Geld, das Rechtssystem, die Finanzmärkte. Aber die Herausforderung ist, das richtig anzupacken. Zurzeit läuft vieles in die falsche Richtung: Etwa, wenn Algorithmen statt Parlamentarier entscheiden, was möglich ist und was nicht, oder wenn Städte in Smart Cities ohne Bürgerbeteiligung verwandelt werden. Es werden Menschenrechte geschliffen.

ML: Die smarte Stadt soll doch Energie sparen und nachhaltig sein.

DH: Genau! Doch bisher hat die Digitalisierung nicht zu mehr Nachhaltigkeit beigetragen. Im Gegenteil, der Energieverbrauch wächst exponentiell. 2030 sollen mehr als 20 Prozent des weltweiten Energieverbrauchs auf das Konto der digitalen Technologien gehen.
Und die Idee, ganze Städte zu Geschäftsmodellen einzelner Firmen zu machen, ist heikel. Alles soll besser und schneller gehen, doch das ist falsch. Ein Unternehmen setzt sich eine Zielfunktion – die will es optimieren. Doch in einem Gemeinwesen müssen immer viele Interessen berücksichtigt und ausbalanciert werden. Das führt dazu, dass Städte aus keiner Perspektive total effizient sind – aber auch dazu, dass sie länger leben als Unternehmen.
Außerdem sollten wir bedenken, dass sich vieles, was uns als Menschen wichtig ist – Liebe, Freundschaft oder Menschenwürde – nicht adäquat digitalisieren lässt und daher in einer datengetriebenen, durchoptimierten Gesellschaft leicht in Vergessenheit gerät. So entsteht eine perfekte Gesellschaft für Roboter, die jedoch völlig unmenschlich ist: ein kaltes Paradies. Früher hatten wir Privatsphäre, Räume, in denen es nicht um Profitmaximierung ging. Die sind jetzt verschwunden und wir spüren zunehmend, dass die Menschlichkeit in Gefahr ist.

ML: Was also ist zu tun?

DH: Wir müssen weg von diesen Automatisierungsideen und stattdessen auf Empowerment, Partizipation und Koordination setzen. Und wir müssen unsere Werte einbauen in die Weise, wie die Städte betrieben werden. Wir brauchen multidimensionales Echtzeit-Feedback, wie in der Natur. Von deren extrem effizienten Stoffkreisläufen kann man viel lernen: Selbstorganisation, Multidimensionalität, Beteiligung. Das passt zu komplexen Systemen; hierarchische Organisation hingegen nicht. Entweder lernen wir das jetzt oder viele Menschen sterben, das muss man leider so sagen. Jeder gegen jeden geht nicht mehr, auch wenn das die Grundlage des heutigen Kapitalismus und Individualismus ist.
Glücklicherweise ist der Mensch nicht so egoistisch, wie man annimmt. Wir haben ein soziales Gehirn und können zusammen Dinge schaffen, die Einzelne nicht zustande bringen. Das hat uns so erfolgreich gemacht, doch das wird von der Ökonomie nicht ausreichend berücksichtigt. Die Gefahr ist, dass wir Opfer von Vereinfachungen werden und uns einreden, der Mensch müsse nun wie eine intelligente Maschine werden.
Aus meiner Sicht brauchen wir einen neuen Gesellschaftsvertrag.

ML: Was müsste in diesem Vertrag stehen?

DH: Die Frage ist, ob wir in einer datengetriebenen Gesellschaft leben wollen, in der Algorithmen entscheiden, was wir dürfen und was nicht, und in der einige wenige Leute an den Schalthebeln sitzen. Oder ob es eine neue Aufklärung gibt, die dafür sorgt, dass wir alle von den neuen digitalen Möglichkeiten fair profitieren. Wir sind mitten in einem Machtkampf, in einem globalen Informationskrieg, bei dem es um die Vorherrschaft geht, nicht nur von Staaten, sondern auch von Unternehmen. Die stehen bereit, um die Gesellschaften der Zukunft zu steuern. Wer sich da durchsetzt, ist noch nicht klar. Es könnte das chinesische System kommen oder die Googlekratie. Oder am Ende doch noch die digitale Demokratie.

ML: Wie steht es denn um die Bemühungen, die Algorithmen zu regulieren?

DH: Das kommt alles sehr spät. Die Frage ist, ob der Rechtsstaat den Mut aufbringt, sich gegenüber diesen ökonomischen und Machtinteressen durchzusetzen; gegen diese heroisierte „zerstörerische Kreativität“, die auch vor Demokratie und Menschenrechten nicht haltmacht. „Move fast, break things“ war das Motto. Und schon sind milliardenschwere Geschäftsmodelle entstanden, die sich die Politik nicht mehr zu regulieren traut.
Doch das kann man ändern. Man kann sagen: Menschenwürde impliziert informationelle Selbstbestimmung – und das ist mehr, als ein Häkchen setzen zu dürfen, dass man mit den Nutzungsbedingungen einer Plattform einverstanden ist, auch wenn man es eigentlich nicht ist. Man müsste die Datenindustrie ganz anders organisieren. Die Daten, die über uns gesammelt werden, könnten in ein persönliches Datenpostfach geschickt werden. Dann könnten wir entscheiden, wer was damit machen darf. Dann würden die Daten auch nicht von jedem Unternehmen separat gespeichert – das würde jede Menge Energie sparen. Und auch kleine Firmen, Startups und Forschungsinstitutionen könnten mit den Daten arbeiten – wenn die Menschen ihnen vertrauen. So könnte viel Mehrwert geschaffen und könnten Lösungen für die Menschheitsprobleme entwickelt werden. Die Ökonomie würde boomen. Politiker bekämen bessere Fakten und Statistiken zur Hand – und könnten bessere Politik machen. Die Menschen bekämen ihre Souveränität zurück. Es würde ein vielfältiges Daten-Ökosystem entstehen und wir würden ein besseres Bild von der Welt bekommen. Die Demokratie würde sich weiter entwickeln. Neue digitale Medien würden kollektive Intelligenz unterstützen; denn komplexe Probleme müssen aus verschiedenen Perspektiven betrachtet werden. Erst die Integration der Perspektiven gibt ein gutes Bild der Realität.

ML: Sie schreiben hier am Wissenschaftskolleg ein Buch, worum geht es da?

DH: Es geht natürlich um die Digitalisierung und wie wir sie nutzen können, um eine positive digitale Zukunft zu gestalten. Da haben wir, d. h. meine Arbeitsgruppe in Zürich und ich, uns einiges ausgedacht: Wir haben z. B. die Plattform für informationelle Selbstbestimmung vorgeschlagen, aber auch Städte-Olympiaden. Dabei treten Städte in einen freundschaftlichen Wettbewerb, um Innovationen auf den Weg zu bringen, die Nachhaltigkeit fördern. Dabei sind auch Forschungsinstitute, Medien, Politik und die Bürgerinnen und Bürger involviert. Und aus den Open-Source-Lösungen kann sich dann jeder das Beste herauspicken, weiterentwickeln und vernetzen. So kann auf globalem Level kollektive Intelligenz entstehen. Gemeinsam vorankommen, das ist das Ziel, durch Bottom-up-Beteiligung.
Außerdem könnte es ein Internet der Dinge mit Feedbackmechanismen geben. Die Auswirkungen unseres Handelns würden lokal gemessen: Lärm, CO2, aber auch positive Dinge wie Nutzen für Gesundheit, Bildung etc. Dann könnte man mit passenden Anreizen die positiven Dinge verstärken und die negativen abschwächen. So könnte man partizipativ Lieferketten in eine Kreislaufwirtschaft verwandeln, samt einer echten Sharing Economy, sodass die Ressourcen dann für alle reichen.
Aus der Psychologie wissen wir, was man in den Mittelpunkt stellen müsste, damit Menschen glücklich sind: Der Mensch hat das Bedürfnis nach Autonomie und sozialer Einbettung und der Möglichkeit, mitzugestalten. Das könnte man zum Grundsatz der Nutzung der digitalen Technologien machen. Das ist alles möglich. Es sind aber zum Teil politische Entscheidungen. Die Politik müsste ihre Kontrollfunktion gegenüber den Starken ernster nehmen. Demokratische Politik ist in erster Linie dazu da, die Menschenwürde zu schützen, das ist das Fundament von allem.

ML: Wo stehen wir in zehn Jahren?

DH: Zehn Jahre sind in der Digitalisierung eine lange Zeit. Da können Dinge wahr werden, die heute als Science-Fiction gelten. Wir müssen viel mutiger sein, Zukunft zu denken. Wenn es uns gelingt, den technologischen Totalitarismus abzuwenden, wird die Welt in zehn Jahren sehr viel besser aussehen

Fotos:© Maurice Weiss