Vom Baum der Erkenntnisse
Joel Mokyr, fotografiert von Basso Cannarsa/Opale/Leemage/laif.

Vom Baum der Erkenntnisse

Ja, wir haben die tiefhängenden Früchte des technischen Fortschritts schon gepflückt, aber die Wissenschaft ermöglicht es uns, immer höhere Leitern zu bauen. Bei der Beurteilung des Innovationstempos sollten wir uns nicht auf BIP-Zahlen verlassen. Sie führen in die Irre: Uns steht keine Stagnation bevor.

Die Sorge, mit dem wirtschaftlichen Wachstum könnte es bald zu Ende sein, ist in Zeiten schwerer Rezession nicht ungewöhnlich: Der keynesianische Wirtschaftswissenschafter Alvin Hansen schrieb seinen berühmten Artikel, in welchem er den Begriff der säkularen Stagnation einführte, im Jahr 1939, gegen Ende der grossen Wirtschaftskrise. Inspiriert von der Finanzkrise 2008 wird der Begriff gegenwärtig zum wiederholten Male aufgegriffen.

Doch es ist verfrüht, den Niedergang des technologiegetriebenen Wirtschaftswachstums in den Industrieländern auszurufen! Natürlich stimmt es, dass das gemessene BIP-Wachstum und daraus abgeleitete Variablen wie das Wachstum der totalen Faktorproduktivität (TFP) seit 2006 schlecht ausfallen. Es darf jedoch daran gezweifelt werden, ob diese Kennzahlen die Erfolge des technologischen Fortschritts korrekt widerspiegeln. Der ohnehin schwache Zusammenhang zwischen Produktivitätswachstum und dem tatsächlich wohlfahrtssteigernden technologischen Fortschritt scheint in den letzten Jahrzehnten noch schwächer geworden zu sein. Dafür gibt es viele Gründe, darunter die Nichtmessung (nicht zu verwechseln mit der Fehlmessung) von Verbesserungen in der Digitaltechnik, die raschen Qualitätssteigerungen bei vielen schon vorhandenen Produkten und die Schwierigkeit, Verbesserungen im Dienstleistungssektor (inkl. des öffentlichen Sektors) zu messen. Wer den gegenwärtigen technologischen Fortschritt studieren will, sollte sich den TFP-Fetisch abgewöhnen. Aggregierte Messzahlen wie das BIP (die Grundlage für TFP-Berechnungen) waren für eine Weizen- und Stahlwirtschaft konzipiert, nicht für eine Informations- und Massenanpassungswirtschaft, in der Dienstleistungen 70–80 Prozent der Wertschöpfung ausmachen. Während das BIP für die Beurteilung kurzfristiger konjunktureller Schwankungen nützlich sein mag, ist sein Nutzen für die Beurteilung des Mehrwerts von Produktinnovationen fraglich. Entscheidend ist nicht so sehr, dass die TFP die Geschwindigkeit des technologischen Wandels falsch misst (was immer klar war), sondern dass der Fehler im Laufe der Zeit wächst. Das Phänomen selbst, das gemessen werden soll, erhöht die Fehlmessung.

Manche technikpessimistischen Vorhersagen scheinen in sich selbst inkonsistent zu sein: Man kann sich nicht gleichzeitig Sorgen machen angesichts drohender technologiebedingter Arbeitslosigkeit, weil Maschinen menschliche Arbeit ersetzen, und darüber klagen, dass die Arbeitsproduktivität nicht steige.

Was kann ein Wirtschaftshistoriker zu dieser Debatte beitragen? Sehr langsames Wirtschaftswachstum, «säkulare Stagnation» sogar, war vor der industriellen Revolution fast überall die Regel. Ja, es war nicht nur langsam, sondern unregelmässig und reversibel. Jahre des Wachstums wurden meist durch Jahre des Rückgangs ausgeglichen. Auch nach ihr kam es zu wirtschaftlichen Niedergängen, aber die guten Jahre überwogen allmählich die schlechten, und Volkswirtschaften wurden widerstandsfähiger gegenüber natürlichen oder menschengemachten Erschütterungen von aussen.

Für die vorindustrielle säkulare Stagnation gibt es drei Haupterklärungsstränge: erstens die Bevölkerungsdynamik – die sogenannte «Malthusianische Falle»: Höherer Wohlstand führte über höhere Geburtenraten zu Bevölkerungswachstum. Die vorhandenen Ressourcen mussten also auf mehr Köpfe verteilt werden, was das Pro-Kopf-Wachstum wieder umkehrte. Zweitens: Das vorindustrielle Wachstum basierte auf den Vorteilen intensiveren Handels und erhöhter Faktormobilität, auf verbesserter Marktintegration und auf effizienterer Ressourcenallokation dank besseren Institutionen. Diese Faktoren sind aber anfällig auf politische Schocks und institutionelle Änderungen. Sie sind reversibel. Der dritte Grund ist der wichtigste, wird aber oft ignoriert: Die Menschen wussten vor 1700 schlicht nicht genug über die physische Welt um sie herum. Die Erfindungen vor 1700 waren normalerweise das Ergebnis glücklicher Zufälle, einzelner, brillanter Geistesblitze und von «Learning-by-Doing». Es war eine Welt des Ingenieurwesens ohne Mechanik, der Landwirtschaft ohne Bodenkunde, des Bergbaus ohne Geologie, der Wasserkraft ohne Hy­draulik und der medizinischen Praxis ohne Mikrobiologie und Immunologie. Der technische Fortschritt im 18. Jahrhundert stützte sich langsam auf Erkenntnisse der Naturphilosophie, auf eine nützlichere praktische Mathematik und auf sorgfältigere experimentelle Methoden, die der wissenschaftlichen Praxis entnommen wurden. Sobald sich der technologische Fortschritt auf formalem und systematischem Wissen abzustützen begann, wuchs der Vorsprung Europas rapide.

Technologie und Innovation messen

Kann der technologische Tsunami, der mit der ersten industriellen Revolution begann, aufrechterhalten werden? Technologiepessimismus gibt es in zwei Varianten. Eine davon zeigt sich in der Hypothese von der technologischen Verlangsamung, wonach zukünftige Innovationen den Lebensstandard nur noch sehr begrenzt beeinflussen werden. Die andere ist die apokalyptische Sichtweise, die eine Welt heraufbeschwört, in der Menschen auf die eine oder andere Weise durch Maschinen ersetzt und verdrängt worden sind – meist eine Kombination aus Robotern, künstlicher Intelligenz und unheimlicheren Wegen, auf denen intelligente Nichtmenschen unserer eigenen Schöpfung irgendeine dystopische Welt erschaffen haben. Die gute Nachricht ist, dass diese pessimistischen Szenarien nicht beide richtig sein können. Eine noch bessere Nachricht ist, dass sogar beide falsch sein könnten. Die hochspekulativen Vorhersagen der diversen «Maschinen fressen Menschen auf»-Dystopien möchte ich aussen vor lassen. Eingehen möchte ich aber auf die Sorge, dass der technologische Fortschritt in Zukunft langsamer und unbedeutender sein könnte als in der Vergangenheit.

Das Argument, die niedrig hängenden Früchte, die sich auf das wirtschaftliche Wohlergehen unmittelbar auswirken, seien grösstenteils gepflückt worden, ist auf den ersten Blick ziemlich überzeugend. Der Ökonom Robert J. Gordon schreibt: «Das Jahrhundert von 1870 bis 1970 war einzigartig. Viele dieser Erfindungen konnten nur einmal gemacht werden, andere stiessen an natürliche Grenzen… die Innovationsverlangsamung und vier Gegenwinde – Ungleichheit, Bildung, Demografie und Verschuldung – [bedeuten] eine trostlose Zukunft, in der das durchschnittliche verfügbare Realeinkommen kaum noch wachsen wird.»1 Viele der Erfindungen des 20. Jahrhunderts, die Gordon beschreibt, haben tatsächlich das tägliche Leben revolutioniert und enorme Konsumentenrenten geschaffen: Klimaanlagen, Antibiotika, High-Definition-Musik und -Fernsehen, fliessendes Kalt- und Warmwasser, Haushaltsgeräte und Kommunikationstools, die das Leben komfortabler machten und Reibungs- und Transaktionskosten reduzierten. Haben wir eine Art Sättigung erreicht, so dass neue Innovationen zu immer geringeren Zugewinnen führen?

Es ist keineswegs klar, ob sich die Innovation im letzten Jahrzehnt verlangsamt hat. Den Ökonomen stehen verschiedene Innovationsmasse wie TFP-Wachstum oder Patentzählungen zur Verfügung, die aber alle fehlerhaft sind. Die TFP kann unabhängig vom technologischen Fortschritt wachsen, und auch ohne TFP-Wachstum kann ein beträchtlicher technologischer Fortschritt stattfinden.

Es gibt überzeugende Nachweise dafür, dass die Vorteile neuer Technologien nicht adäquat im BIP – und damit: in der Produktivitätsstatistik – abgebildet werden. Allerdings galt das auch schon in früheren Epochen. Es ist also nachzuweisen, dass sich diese Unterrepräsentation akzentuiert hat. Dass digitale Technologien es erlauben, Dienstleistungen und Produkte häufig kostenlos oder sehr tiefpreisig zu vertreiben, reicht alleine noch nicht aus, um die Produktivitätsverlangsamung zu erklären. Bezieht man aber zusätzlich die Einführung neuer Waren und Dienstleistungen sowie Qualitätsverbesserungen über ein breites Spektrum in die Berechnung ein, wird die Sache signifikant. Es ist daher von entscheidender Bedeutung abzuschätzen, ob Produktinnovationen im Vergleich zu Prozessinnovationen an Bedeutung gewonnen haben, da erstere im Verbraucherpreisindex so lange unsichtbar bleiben, bis sie einen wesentlichen Teil der Ausgaben ausmachen, während letztere sofort als Preisverfall und damit als Steigerung des Realeinkommens einfliessen.

«Ein Beobachter, der sich im Jahr 1775 mit Dampfkraft in Grossbritannien befasste, wäre zum Schluss gekommen, es handle sich dabei um «nichts Neues» und der Effekt sei «bislang» minimal.»

Wenn die Vielfalt der Produkte und Dienstleistungen zusätzlich zur Qualitätsverbesserung als Kriterium eingeführt wird, erscheint es intuitiv plausibel, dass sich die Messfehler in den letzten zwei Jahrzehnten vergrössert haben. Gordon bestreitet, dass Smartphones und Tablets wesentliche Auswirkungen auf die Produktivität hätten – sie seien primär für Verbraucher gemacht.2 Digitale Geräte bieten jedoch nicht nur Konsumenten einen Mehrwert: Sie senken die Kosten alltäglicher Aktivitäten wie Einkaufen, Kommunikation, Behördenkontakt, medizinischer Versorgung und Fortbewegung erheblich. Solche Kosten werden normalerweise bei der Berechnung des BIP nicht abgezogen.

Die von Gordon beschriebene Produktivitätsverlangsamung des 21. Jahrhunderts ist vermutlich nur vorübergehend – bis neue Allzwecktechnologien wie künstliche Intelligenz (KI) und Genomchirurgie vollständig in Produktionslinien integriert worden sind –, wie es auch in der Vergangenheit viele Jahrzehnte gedauert hat, bis Technologien wie die Dampfmaschine und die Elektrizität in all ihren potentiellen Einsatzgebieten zum Tragen kamen: Ein Beobachter, der sich im Jahr 1775 mit Dampfkraft in Grossbritannien befasste, wäre zum Schluss gekommen, es handle sich dabei um «nichts Neues» und der Effekt sei «bislang» minimal.

Messfehler wegen externer Kosten

Ein weiterer wichtiger Faktor ist zu nennen: Die Produktivitätsgewinne durch den technologischen Fortschritt waren in den letzten zwei Jahrhunderten möglicherweise zu hoch veranschlagt. Und zwar, weil Inputs verwendet und nie bezahlt wurden – zum grossen Teil, weil es keine Eigentumsrechte und keinen Markt für sie gab. Der grösste dieser Inputs war zweifellos die Umwelt. Bei der Berechnung der historischen Produktivitätsgewinne, die durch die massenhafte Verwendung fossiler Brennstoffe und Verbrennungsmotoren möglich wurden, blieben deren Auswirkungen auf das globale Klima unberücksichtigt. Gleiches gilt für die Luftqualität: Vom chinesischen und indischen Wirtschaftswachstum wird kein Wert abgezogen, der die Kosten der Luftverschmutzung in Delhi und Peking (und in Dutzenden weiteren Megacities – vor allem in Entwicklungsländern –, die allesamt ungesunde Lebensräume geworden sind) repräsentiert. Im Grossbritannien des 19. Jahrhunderts hatte der vermehrte Einsatz von Kohle in Industriestädten erhebliche Gesundheitskosten zur Folge, die erst kürzlich quantifiziert wurden. Das Wachstum der landwirtschaftlichen Produktivität wurde bisher gemessen, ohne seine negativen Auswirkungen zu berücksichtigen, etwa die zunehmende Resistenz der Tiere gegen Arzneimittel durch den übertriebenen Einsatz von Antibiotika oder das katastrophale Ausmass der Veralgung, verursacht durch das Abfliessen von Düngemittelresten in die Seen und Ozeane. Besonders auffällig sind die Nebeneffekte des Wachstums in den Weltmeeren, wobei steigende Wassertemperaturen, massive Verschmutzung und Versauerung besonders bedrohlich sind. Frühere Schätzungen des Produktivitätswachstums in der Fischerei berücksichtigten noch nicht einmal die Verringerung der zukünftigen Bestände, die Fangtechniken mit hoher Produktivität mit sich bringen. Aufgrund der «Verbesserung» der Fangtechniken sind grosse Teile der Fischbestände – und damit eine Ressource, die der Weltbevölkerung mehr Proteine zuführt als Rindfleisch und die für den Lebensunterhalt von fast einem Zehntel der Menschheit sorgt – ernsthaft bedroht. Umweltvorschriften mögen kurzfristig die Produktivität verringern, das sollte aber als Ausgleichszahlung für die letzten zwei Jahrhunderte angesehen werden.

«Ein wesentlicher Teil des technologischen Wandels und des Wirtschaftswachstums wird in naher Zukunft wahrscheinlich in Form der Korrektur unbezahlter Kosten und Schäden aus vergangenem Wirtschaftswachstum erfolgen.»

Es ist das Wesen des technologischen Fortschritts, dass die meisten neuen Technologien unerwartete und unbeabsichtigte Folgen haben. Neue Erfindungen können (oft viele Jahre später) weitaus höhere Kosten verursachen, als zum Zeitpunkt ihrer Einführung angenommen wurde, als technologisches «Bite-Back». Fluorchlorkohlenwasserstoffe (FCKW), die einst fast überall als absolut sichere Kühlmittel verwendet wurden, zerstörten eine knappe Ressource, auf die noch niemand geachtet hatte: die Ozonschicht der Atmosphäre. DDT, ein beeindruckend wirkungsvolles Insektizid, das kurz vor dem 2. Weltkrieg entdeckt wurde, erwies sich für Zwei- und Vierbeiner als ebenso gefährlich wie für Sechsbeiner. Die Idee, Benzin Blei zuzusetzen, um das Klopfen des Motors zu unterbinden, hat sich als eine der «teuersten» Innovationen des 20. Jahrhunderts herausgestellt – in diesem Fall waren die Gefahren von Bleivergiftung sogar bereits zum Zeitpunkt der Erfindung im Jahr 1921 bekannt gewesen.3

Ein wesentlicher Teil des technologischen Wandels und des Wirtschaftswachstums wird in naher Zukunft wahrscheinlich in Form der Korrektur unbezahlter Kosten und Schäden aus vergangenem Wirtschaftswachstum erfolgen: durch Erneuerung und Ersatz bestehender Systeme, deren soziale Kosten weit über die ursprünglich eingeplanten hinausgingen. Die Geschichte scheint zu zeigen, dass mehr und bessere Technologien die Fehler und negativen Auswirkungen von früheren beheben können – auch wenn es natürlich keine Gewissheit gibt, dass dies immer möglich ist. Die Notwendigkeit, Benzin mit Tetraethylblei zu versetzen, wurde durch die technischen Fortschritte im Automobilbau und in der Erdölchemie beseitigt. In den letzten Jahren hat der starke Preisverfall bei Solarmodulen dazu geführt, dass Solarstrom eine wirtschaftliche Realität geworden ist. Die technische Lösung der Frage, wie die Welt den Fischkonsum aufrechterhalten kann, kann nur die Aquakultur sein, bei der aber noch erhebliche Forschungsarbeiten erforderlich sind, um Futter und Lebensraum für die Fische zu optimieren.

In vielerlei Hinsicht sollte man den technologischen Fortschritt als ein sich ständig selbst korrigierender Prozess betrachten, bei dem neue Techniken unvorhergesehene negative Konsequenzen haben, die Optimierungen oder Korrekturen erfordern, die wiederum neue Bite-Back-Effekte hervorrufen und so weiter. Negative Bite-Back-Effekte haben zur Folge, dass die tatsächlichen sozialen Kosten vieler Innovationen unterschätzt wurden und die Rechnung für einige Inputs von einer zukünftigen Generation bezahlt wird. Wenn Outputs zum Zeitpunkt t erzeugt werden, die notwendigen Inputs aber erst zum Zeitpunkt t + 1 bezahlt werden, ist jeder Produktivitätsvergleich zwischen t und t + 1 verzerrt. Das TFP-Wachstum ist in der Vergangenheit eindeutig überbewertet worden, und möglicherweise wird deshalb auch der aktuelle Rückgang übertrieben wahrgenommen. Ein Teil der Innovationsanstrengungen in den kommenden Jahrzehnten könnte darauf gerichtet sein zu erhalten, was wir bereits haben, und mögliche verspätete Negativeffekte zu korrigieren, anstatt darauf, den Lebensstandard unmittelbar zu erhöhen. Diese Innovationen treten aber nicht unbedingt als TFP-Wachstum zutage.

Können wir den technologischen Fortschritt aufrechterhalten?

Welchen Anlass haben wir, davon auszugehen, dass sich der technologische Fortschritt im bisherigen Tempo fortsetzt? Um die eingangs erwähnte Baummetapher zu bemühen: Ja, wir haben die tiefhängenden Früchte gepflückt, aber die Wissenschaft ermöglicht es uns, immer höhere Leitern zu bauen und so immer höher hängende Früchte zu erreichen. Dank der Geschwindigkeit des wissenschaftlichen Fortschritts könnten technologische Durchbrüche das Leben in absehbarer Zeit genauso drastisch verändern wie in den anderthalb Jahrhunderten seit dem US-amerikanischen Bürgerkrieg. Einige «Kandidaten» dafür sind schon bekannt: fahrerlose Autos, eine Energieversorgung komplett ohne Kohle, der 3D-Druck, neue, am Computer de­-
sig­n­te Kunststoffe, Virtual Reality und transkranielle Stimulation, künstliche Intelligenz (durch Deep Learning verbessert), Robotik und medizinische Fortschritte in der Diagnosetechnologie sowie bei degenerativen und neurologischen Erkrankungen, die den Alterungsprozess erheblich verlangsamen und ein längeres gesundes Leben ermöglichen.

«Wenn das 20. Jahrhundert das Jahrhundert der Physik war, wird das 21. Jahrhundert das der Biologie sein.»

Wurde die Geschichte der industriellen Revolution von Energie dominiert, könnte die Zukunft radikale Fortschritte bei der Entwicklung neuer Materialien bringen. Viele technologische Ideen konnten in der Vergangenheit nicht verwirklicht werden, da die den Erfindern zur Verfügung stehenden Materialien einfach nicht ausreichten, um das Design in die Realität umzusetzen. Dank moderner Nanotechnologie können Wissenschafter heute neue Kunststoffe und Materialien entwerfen, die in der Natur nie vorgesehen waren – mit massgeschneiderten Eigenschaften in bezug auf Härte, Belastbarkeit und Elastizität.

Wenn das 20. Jahrhundert das Jahrhundert der Physik war, wird das 21. Jahrhundert das der Biologie sein. Die jüngsten Entwicklungen in der Molekularbiologie lassen revolutionäre Veränderungen in der Fähigkeit des Menschen, andere Lebewesen zu manipulieren, erahnen. Hervorzuheben ist etwa der Rückgang der Kosten für DNA-Sequenzierungen in einem Mass, das das Moore’sche Gesetz träge erscheinen lässt. Besonders vielversprechend ist das dank jüngster Verbesserungen der CRISPR-Cas9-Technik möglich gewordene Editing von Basenpaaren einer genetischen Sequenz. Ein weiterer Bereich ist die synthetische Biologie, welche die Herstellung von tierischen Produkten ermöglicht, ohne lebende Organismen «zwischenschalten» zu müssen. Die Idee der zellfreien Herstellung von Proteinen ist bereits etwa ein Jahrzehnt alt, aber ihr volles Potenzial ist erst seit kurzem öffentlich bekannt – und noch Jahre davon entfernt, voll ausgeschöpft werden zu können.

Es ist unvermeidlich, dass technologische Fortschritte gelingen werden, die heute niemand prognostiziert, während heute vielversprechend wirkende Ansätze als Enttäuschungen enden. Die Stichhaltigkeit der Behauptung, dass der technologische Fortschritt sich nicht verlangsamt, hängt jedoch nicht von dem einen oder anderen Technologiebereich ab. Sie basiert auf der Beobachtung, dass Technologie immer wieder in der Lage gewesen ist, sich am eigenen Schopf aus dem Sumpf zu ziehen, indem sie wissenschaftlichen Forschern immer leistungsfähigere Werkzeuge zur Verfügung stellt.

Unter den althergebrachten Werkzeugen sticht das Mikro­skop hervor, da es für den allgegenwärtigen Trend zur Miniaturisierung von grundlegender Bedeutung ist. Das hochauflösende Betzig-Hell-Fluoreszenzmikroskop4 ist im Vergleich zu Leeuwenhoeks Mikroskop, was Thermonuklearwaffen im Vergleich zu einer Brandbombe aus dem 14. Jahrhundert sind. Mehr oder weniger dasselbe gilt für Teleskope, wo das revolutionäre Hubble-Teleskop bald durch das weit überlegene Weltraumteleskop James Webb ersetzt wird.

Die beiden leistungsstärksten wissenschaftlichen Werkzeuge, die erst in den letzten Jahrzehnten und im völligen Bruch mit der Vergangenheit verfügbar wurden, sind Hochleistungsrechner (einschliesslich unbegrenzter Datenspeicherungs- und Suchtechniken) und die Lasertechnologie. Beide haben unzählige direkte Anwendungen in der Produktion sowohl von Investitions- als auch von Konsumgütern gefunden. Ihre langfristigen Auswirkungen auf die Produktivität werden jedoch durch die Konzentration auf das jährliche TFP-Wachstum unterschätzt, da diese Messgrösse die indirekten Auswirkungen dieser Techniken auf die Forschung, die in Zukunft zu technologischen Fortschritten in einem ganz anderen Bereich führen könnte, nicht berücksichtigt.

«Künstliche Intelligenz könnte zum effektivsten Forschungsassistenten der Welt werden – wenn auch niemals zum besten Forscher.»

Die Auswirkungen von Computern auf die Wissenschaft gehen weit über komplizierte Berechnungen und statistische Standardanalysen hinaus: Es ist eine neue Ära der Datenwissenschaft angebrochen, in der Modelle durch leistungsstarke Maschinen ersetzt werden, die Megadaten verarbeiten und Muster erkennen, die der menschliche Verstand niemals erkennen, geschweige denn verstehen könnte. Solche Deep-Learning-Modelle befassen sich mit Data-Mining unter Verwendung künstlicher neuronaler Netze. Statt dass Forscher sich mit Modellen abmühen müssten, erkennen Hochleistungscomputer Regelmässigkeiten und Korrelationen, selbst wenn sie «so verdreht sind, dass das menschliche Gehirn sie weder erfassen noch vorhersagen kann».5 Hier lautet das Motto: Wer braucht Kausalität, solange Korrelationen da sind? Philosophisch gesehen ist das nichts Neues: Wissenschafter nutzten immer auch induktive Methoden, bei denen sie etwa Daten über Pflanzen, Schalen und Gesteine sammelten und nach Regelmässigkeiten suchten, ohne die zugrunde liegenden Gesetze ganz zu verstehen. Der Unterschied liegt nur in der Grössenordnung: Was das «James Webb» für Galileos erstes Teleskop ist, sind die riesigen Datenbanken der Mega-Datencruncher für Carl von Linnés Notizbücher. Künstliche Intelligenz könnte zum effektivsten Forschungsassistenten der Welt werden – wenn auch niemals zum besten Forscher.

Die Lasertechnologie ist ein ebenso revolutionäres wissenschaftliches Werkzeug. Als die ersten Laser entwickelt wurden, mussten selbst ihre Erfinder gestehen, der Technik fehle noch ein Anwendungsgebiet. Doch schon in den 1980er Jahren wurden Laser zum Abkühlen von Mikroproben auf aussergewöhnlich niedrige Temperaturen eingesetzt, was zu erheblichen Fortschritten in der Physik führte. Heute werden Laser quer durch die Wissenschaftsgebiete – von der Physik über die Chemie, Biologie, Medizin bis zur Geografie – verwendet.

Ähnlich wie die neuen Instrumente und Werkzeuge des 17. Jahrhunderts die naturwissenschaftliche Revolution und das Zeitalter des Dampfes einläuteten, werden leistungsstarke Computer und Laser zu technologischen Fortschritten führen, die heute genauso wenig vorstellbar sind, wie Galileo die Lokomotive vorhersehen konnte.

Fazit

Wenn uns die jüngste Wirtschaftsgeschichte der Technologie etwas lehrt, dann, dass die Vergangenheit ein schlechter Wegweiser für die Zukunft ist. Nach Jahrtausenden mit sehr langsamem und reversiblem Wachstum hat die Welt in den letzten zwei Jahrhunderten einen beispiellosen wirtschaftlichen Expansionskurs eingeschlagen, vorangetrieben von nützlichem Wissen und menschlichem Einfallsreichtum. Mit der zunehmenden Fähigkeit, Naturphänomene zu verstehen, wächst auch die Fähigkeit, die Natur an unsere Bedürfnisse anzupassen. Die Frage, ob der Mechanismus der positiven Rückkopplung, der den technologischen Fortschritt antreibt, doch irgendwann einmal in sinkenden Renditen und Verlangsamungen endet, ist unbeantwortet – und wird es vorerst auch bleiben. Ausgestattet mit immer leistungsfähigeren Werkzeugen wird unser Verständnis natürlicher Prozesse aber weiterhin rasant zunehmen und weiterhin neue Erfindungen und Anwendungen hervorbringen. Diese werden zu einem weiteren Wohlstandswachstum führen – auch wenn sich dieses nicht immer in der volkswirtschaftlichen Gesamtrechnung widerspiegeln wird.


Aus dem Englischen übersetzt von Stephan Bader und Lukas Rühli.

  1. Robert J. Gordon: The Rise and Fall of American Growth. Pinceton: Princeton University Press, 2016, S. 638, 641–642.

  2. Robert J. Gordon: Declining American Economic Growth Despite Ongoing Innovation. In: Explorations on Economic History 69 (2018).

  3. Jerome O. Nriagu: The Rise and Fall of Leaded Gasoline. In: The Science of the Total Environment  92 (1990), Elsevier.

  4. http://www.mpg.de/10874310/minflux-mikroskop

  5. David Weinberger: Alien Knowledge: When Machines Justify Knowledge, 2017. Web: http://www.wired.com/story/our-machines-now-have-knowledge-well-never-understand/

Tyler Cowen, zvg.
Wachstum heisst Wohlstand

Die langfristigen positiven Auswirkungen des Wirtschaftswachstums werden dramatisch unterschätzt. Wir sollten politische Massnahmen nicht nach ihrer Sofortwirkung beurteilen, sondern nach ihrem Einfluss auf den Innovationspfad.

Joel Mokyr, fotografiert von Basso Cannarsa/Opale/Leemage/laif.
Vom Baum der Erkenntnisse

Ja, wir haben die tiefhängenden Früchte des technischen Fortschritts schon gepflückt, aber die Wissenschaft ermöglicht es uns, immer höhere Leitern zu bauen. Bei der Beurteilung des Innovationstempos sollten wir uns nicht auf BIP-Zahlen verlassen. Sie führen in die Irre: Uns steht keine Stagnation bevor.

«Ein Sprudelbad fürs Hirn!»
Monique Bär, Philanthropin und Gründerin der Arcas Foundation,
 über den «Schweizer Monat»