• Keine Ergebnisse gefunden

3.1 Ausgangslage

3.1.2 Entwicklungsdeterminanten

Die Diffusion der digitalen Technik wird vor allem von zwei Faktoren vorangetrie-ben: dem außergewöhnlichen Tempo des technischen Fortschritts, das im sog. Moo-re’schen Gesetz seinen Ausdruck findet und in der Annäherung der Grenzkosten für die Verbreitung von Informationen an die Null-Linie. Beides trägt zur Erklärung der hohen Wachstumsraten der digitalen Wirtschaft und ihrer Omnipräsenz in der heu-tigen Welt bei.

Das Moore’sche Gesetz

Der Mitbegründer von Intel, Gordon Moore, sagte 1965 voraus, dass sich die Zahl der integrierten Schaltkreise im Verhältnis zu den Kosten der Mikroprozessoren in

den nächsten zehn Jahren jährlich verdoppeln werde (Moore 1965). Diese Vorher-sage gilt im Prinzip noch heute. So hat sich die Leistungsfähigkeit von Supercompu-tern, gemessen in FLOPS18, zwischen 1990 und 2012 in jedem Jahr verdoppelt, die Effizienz der Festplatten ist jährlich um 67 % gestiegen, und die Anzahl der Transis-toren auf den Mikrochips ist immerhin um 47 % pro Jahr angestiegen (Brynjolfs-son/McAfee 2014: 48).

Moore unterschätzte die Gültigkeitsdauer seiner These bei weitem. Brynjolfsson und McAfee (2014: 48) führen mehrere elektronische Komponenten auf, für die über Jahrzehnte stetiges exponentielles Wachstum beobachtet werden kann (Tabelle 9).

Sie sind überzeugt, dass die Gültigkeit des Moore’schen Gesetzes ungebrochen ist und verweisen auf die jüngsten Computergenerationen (wie z. B. das iPad 2 oder die Sony PlayStation 3), deren Leistungen die Supercomputer von vor zehn Jahren über-treffen, die im Gegensatz zu ihren Vorgängern mit Kameras, Audioschnittstellen, Bildschirmen, WLAN, GPS-Empfängern usw. ausgestattet sind und die gleichzeitig nur einen Bruchteil kosten.19

Tab. 9 Leistungsfähigkeit elektronischer Komponenten

Komponente Zeitraum Durchschnittliche

jährliche Wachstumsrate in %

Erwartete Verviel-fachung bei halber

Wachstumsrate 2015–30

Supercomputer FLOPS 1990–2012 99 153

Festplatten-Effizienz

(Kilobytes/Dollar) 1987–2012 67 28

Transistoren/Mikrochip 1970–2012 47 9

Quelle: Brynjolfsson/McAfee (2014: 48), Economix

Als entscheidenden Treiber dieser Entwicklung sehen sie nicht allein die Technik als solche. Hinter ihrer Entwicklung steht die durch die Informationstechnik eröffnete Möglichkeit, die Kombinationen wissenschaftlicher und technischer Erkenntnisse exponentiell auszuweiten. Das weltweite Forschungs- und Entwicklungspersonal – dessen Zahl im Vergleich zur technischen Leistungsfähigkeit vermutlich nur lang-sam wächst – verfügt über mehr Information und schnellere Computer und kann damit eine immer größere Zahl von Lösungsmöglichkeiten testen. Damit steigt die Produktivität der Forscher und der wissenschaftliche Output nimmt zu, weil die

18 Floating Point Operations per Second.

19 Als Beispiel nennen sie den Supercomputer ASCI Red, der 1996 als schnellster Computer eine Rechengeschwindigkeit von 1,8 Teraflops erreichte und dessen Entwicklung 55 Millionen Dollar gekostet haben soll. Mit diesem Tempo rech-nete 10 Jahre später die Sony PlayStation 3 und ihr Preis lag bei 500 Dollar.

Ähnliche Entwicklungen zeigen sich auch bei elektronischen Geräten, wie z. B. dem Zyklopen-Auge LIDAR, das in Googles autonomem Fahrzeug installiert ist. Dieses Auge erzeugt bei der Vermessung seiner Umwelt 1,3 Millionen Datenpunkte pro Sekunde und erstellt damit 3D-Bilder in Realzeit. Die ersten Versionen von LIDAR kosteten 35 Millio-nen Dollar, während das Gerät 2013 für 80.000 Dollar zu haben war (Brynjolffson/McAfee 2014: 49, 55).

Vielfalt der Denkansätze zunimmt. Dies erhöht die Wahrscheinlichkeit für das Auf-finden von Verbesserung mit exponentiellen Raten (ebd.: 81).

Die Frage bleibt allerdings, ob es den Forschern und Entwicklern gelingt, die wach-sende Informationsflut zu bewältigen. „Das Wachstum [so zitieren die beiden Auto-ren Romer] ist nicht vorbei, es wird nur durch unsere Unfähigkeit gebremst, all die neuen Ideen zu verarbeiten“ (ebd.: 82). Dies bedeutet, dass auch in der digitalen Technik mit sinkenden Fortschrittsraten zu rechnen ist. Aber auch, wenn wir bis 2030 von einer Halbierung der technologischen Fortschrittsraten ausgehen, werden die in Tabelle 9 genannten Techniken hohe Zuwachsraten aufweisen: Die Supercom-puter würden dann 2030 um das 153fache schneller sein – und mit ihnen möglicher-weise die Tablets und Spielkonsolen. Die Festplatten werden sich um den Faktor 28 verbilligen, und die Mikrochips werden neunmal mehr Transistoren enthalten als 2015. Der Eindruck eines außergewöhnlichen Wachstumsphänomens wird sich da-durch nicht grundlegend ändern.

Dies ist dann eine andere digitale Welt, die man sich in ihrer Ausgestaltung heute kaum vorstellen kann. Sie ermöglicht exorbitante Leistungssteigerungen in der da-tenintensiven Sensorik, in der Reaktionsschnelligkeit von Real-Time-Anwendungen, im Umfang und in der Effizienz von Big Data-Analysen, bei der Wirklichkeitsnähe der Virtual Reality und in vielen anderen Bereichen der Informationstechnik. Bei solchen Fortschrittsraten steht fest, dass auch der heute nicht erfasste Teil unserer Lebens- und Arbeitswelt bis dahin von der digitalen Technik durchdrungen sein wird.

Null-Grenzkosten

Digitale Informationen sind durch zwei Merkmale gekennzeichnet:

• Sie können fast kostenlos weitergegeben werden, d. h. die Grenzkosten ihrer Verbreitung liegen nahe bei Null.

• Sie sind – einmal an die Öffentlichkeit gebracht – nicht-rivalisierende Güter, d. h. ihre Nutzung schließt andere nicht von der Nutzung aus.

Soweit die Nutzung nicht durch restriktive Schutzrechte oder Geheimhaltung be-schränkt wird, machen diese Eigenschaften Information zu einem quasi öffentlichen Gut, dessen Gebrauch keine Konkurrenzbeziehung zwischen den Nutzern entstehen lässt. Damit entfällt eine wesentliche Preisdeterminante, der Wettbewerb der Nach-frager um die Nutzung eines Gutes. Gleichzeitig entfällt eine wesentliche Restrik-tion auf der Nachfrageseite, der mit steigender Nachfrage ansteigende Preis, der im-mer auch einen Teil der Nachfrager vom Konsum ausschließt. Information ist daher im Idealfall überall verfügbar, und zwar zu einem von der Nachfrage unabhängigen und sehr niedrigen Preis.

Die geringen Grenzkosten für die Erstellung der digitalen Information senken die sog. variablen Kosten für eine zusätzliche Produktionseinheit auf nahezu Null. Auf der Herstellerseite fallen fast nur Fixkosten an, und der durchschnittliche Herstel-lungspreis sinkt annähernd proportional mit der steigenden Zahl der Nachfrager.

Auch auf der Nutzerseite sind die Kosten für den Abruf und die eventuelle Speiche-rung vernachlässigbar. Ähnlich wie bei den Herstellern verschwinden die variablen Kosten (für den Erwerb einer digitalen Kopie) und es verbleiben nur die Fixkosten für den Erwerb und den Betrieb des Computers bzw. für die Anbindung ans Netz.

Diese beiden Eigenschaften haben die traditionellen Informationsmärkte kräftig durcheinandergewirbelt. Mit als erste war die Musikindustrie betroffen, später die Buch- und Zeitungsverlage und die Druckereien. Die alten, auf der Vermarktung physischer Kopien beruhenden Industrien sahen sich der gnadenlosen Konkurrenz der Online- und Streaming-Dienste ausgesetzt, die vor allem im Preis, aber auch in Bezug auf die Schnelligkeit der Weiterverbreitung nicht einzuholen waren. Es hat mehr als ein Jahrzehnt gedauert, bis sich das Verlagswesen auf die Bedingungen der elektronischen Informationsmärkte eingestellt hat, und ebenso lange, bis die Tauschbörsen die Existenz von Nutzungsrechten anerkannt haben (oder im Zuge ge-richtlicher Verfahren anerkennen mussten). Heute bildet sich ein Modell heraus, das den Zugang zu den Informationsbörsen häufig durch Abonnements regelt. Die Kos-ten für Auf- und Ausbau der Informationsangebote werden durch Werbung (mit-)fi-nanziert, und die Informationslieferanten, sprich, die Autoren und Künstler, sind an den Erträgen beteiligt. Dies ist dem Geschäftsmodell der analogen Verlagswelt nicht unähnlich – mit dem entscheidenden Unterschied, dass die elektronischen Informa-tionsbörsen ein um ein Vielfaches größeres Angebot in Realzeit bereitstellen und eine wesentlich größere Reichweite unter den Nachfragern aufweisen.

Datenschutz versus Information als öffentliches Gut

Diese Beispiele verweisen auf den Antagonismus zwischen dem öffentlichen Cha-rakter von Information und den Verwertungsinteressen der privaten und staatlichen Anbieter von Informationen. Die Konfliktlinie zieht sich von der Geheimhaltung be-hördlicher und unternehmenseigener Informationen über Copyrights und Patente bis hin zur informationellen Selbstbestimmung durch Individuen. Immer stehen die Schutzinteressen der Informationsinhaber dem Verfügungsanspruch der Nutzer gegenüber. Dabei war der Schutz der Information durch ihre Materialisierung auf Papier oder sonstige Informationsträger und durch den Kaufpreis auch nur teilweise gesichert. Die Entmaterialisierung von Information durch die digitale Speicherung hebt aber auch diesen Schutz weitgehend auf, und die niedrigen Verbreitungskosten tun ein Weiteres, um den öffentlichen Charakter von Information zu stärken. Es se-hen sich also all jene in ihrer Position gefährdet, deren Handlungskonzept auf der

„Geheimhaltung“ von Information oder ihrer privaten Verwertung beruht. Mit zu-nehmender Digitalisierung wird der Informationsschutz zwangsläufig geschwächt.

Dem stehen aber auch Gewinne gegenüber, denn bei geringeren Kosten und höhe-rer Fließgeschwindigkeit decken digitale Informationen den Informationsbedarf der Gesellschaft schneller, kostengünstiger und effizienter als dies in der analogen Welt möglich wäre. Der Zugang zur Information – und letztlich das Wissen um die Vor-gänge in der Welt – ist so immer weniger eine Frage von Preis und Einkommen als zunehmend eine Frage von Bildung, Organisation und Zeit. Der Wissensstand einer

Gesellschaft steigt (bei gegebenem Bildungsstand) mit dem Volumen der (frei) ver-fügbaren Information und der Effizienz des Informationszugriffs. Aus dem Blick-winkel der Wissensökonomie wäre es daher nur konsequent, die Digitalisierung der Information voranzutreiben, die Verfügungsrechte auf ein notwendiges Minimum zu beschränken und die Effizienz der Informationsaufbereitung und -verarbeitung voranzutreiben. Mit der Beschränkung oder Beseitigung der Informationsmonopole verliert die Aussage „Wissen ist Macht“ an Bedeutung, und die wohlfahrtsteigern-den, gesamtgesellschaftlichen Effekte der Information können sich umso besser ent-falten.