• Keine Ergebnisse gefunden

4 DAS MEDIUM INTERNET

4.1 Die Genese des Netzes

4.1.2 Netzkultur

Im Rahmen des historischen Rückblicks in die Entwicklung des Wissensbegriffs und der Modi zur Wissensgenerierung mit dem Aufkommen des Buchdrucks nach Gutenberg im zweiten Kapitel, konnte rekonstruiert werden, dass die neue Technologie relativ bald auch durch neue gesellschaftlichen Phänomenen aufgegriffen wurde (z.B. neue Berufsgruppen) beziehungsweise bestimmten Strömungen Vorschub leistete. Neue Formen von Arbeit etablierten sich, neue Institutionen wurden gegründet und es entstand eine Kultur im Kontext der neuen medialen Möglichkeiten, die sich gleichsam in der Verbreitung von Praktiken und in der Entwicklung des Mediums selbst niederschlug. Castells zeigt einen ähnlichen Zusammenhang auch für das Internet auf und charakterisiert die Netzkultur anhand von vier Ebenen: „the techno-meritocratic culture, the hacker culture, the virtual communitarian culture, and the entrepreneurial culture“ (Castells 2001, S. 37).

Diese vier Ebenen von Netzkultur stecken in den jeweiligen Ursprüngen bestimmter Entstehungsphasen, die wir zuvor betrachtet haben. Die techno-meritokratische Kultur entstamme den primär akademischen und wissenschaftlichen Kontexten insbesondere der frühen Entstehungsphase bis in die frühen 1990er, bevor das Netz kommerziell genutzt wurde.

Gleichzeitig sei es eng an eine hohe Technologiekompetenz gekoppelt, Castells spricht daher von einer Technoelite (ebd., S. 39 f.). Offenheit und eine auf Konsens und Peer Review basierende Form der Kollaboration seien damit relativ direkt der Aufklärung und der Moderne entlehnt (ebd.).

Dabei wurden zentrale Aspekte der Kontrolle über das Netz insbesondere in der Entstehungsphase von Schlüsselfiguren aus der Kultur übernommen, die das Vertrauen ihrer Kollegen genossen. Erst später insbesondere mit der Internationalisierung des Internets wurden unabhängigere Institutionen notwendig.

Als zweiter kultureller Hintergrund gilt die Hackerkultur, die ihrerseits ebenfalls techno-meritokratische Wurzeln hat und parallel mit der Entstehung des Netzes wuchs. Eine detaillierte Charakterisierung der Hackerkultur sprengt den Rahmen dieser Arbeit (vgl. Himanen 2001, Levy 2001, Holze 2012), es scheint aber wichtig festzuhalten, dass es sich um eine sehr heterogene Kultur handelt, die im Kern einen kreativen und bisweilen subversiven Umgang mit Technologie pflegt und vor diesem Hintergrund den uneingeschränkten Zugang zu eben dieser Technologie (also zu Computern, die zu Beginn ihrer Verbreitung meist in separaten Räumen verborgen waren und nur dem Fachpersonal zugänglich) forderten. Aus Mangel an Ressourcen entstand hier auch eine Bewegung von Selbstbauern, die eigene Computersysteme entwarfen und bauten, die günstig und für Hobbyisten und Amateure gedacht waren. Dabei ist der Hackerkultur ein generelles Misstrauen gegenüber Autoritäten eigen und eine Tendenz zur Unabhängigkeit, die sich insbesondere auch aus der Hackerethik entnehmen lässt, die Steven Levy (2001) in sechs Punkten zusammengefasst hat:

• Access to computers—and anything which might teach you something about the way the world works—should be unlimited and total. Always yield to the Hands-On Imperative!

• All information should be free

• Mistrust authority—promote decentralization

• Hackers should be judged by their hacking, not criteria such as degrees, age, race, sex, or position

• You can create art and beauty on a computer

• Computers can change your life for the better

(Levy 2001, S. 26-36, vgl. auch Mizrach 1997, Jargon File 2017)

Es ergibt sich aus dieser Ethik, dass ein bestimmter Umgang mit Informationen und damit in der Verlängerung der Basis von Wissen propagiert wird. Das ist für die Fragestellung dieser Arbeit insbesondere deshalb von Interesse, weil – ähnlich der Gens de Lettre aus dem 17. und 18.

Jahrhundert – Teile dieser Kultur für die Evolution und Weiterentwicklung der medialen Infrastruktur verantwortlich sind, aus der heraus sie entstanden sind. Hacker sind aktiv an der Weiterentwicklung der Software für das Internet beteiligt, die schon zuvor thematisierte Offenheit ermöglicht einen Prozess der ständigen Modifizierung der Technologie im Rahmen der dafür vorgesehenen Modi von Konsens und Gemeinschaft. Vor diesem Hintergrund wird klar, dass darin ein mögliches Strukturmerkmal des Netzes zu sehen ist, welches sozusagen in seine DNA einbeschrieben ist und auch gegenwärtig weiter beobachtet werden kann.

Die dritte kulturelle Strömung bei Castells sind die Virtual Communitarians, und damit das Phänomen der Onlinevergemeinschaftung (Castells 2001, S. 52 ff.). Beispiele dafür lassen sich in allen Vorstufen des Internets finden, obwohl der Begriff der Virtual Communities erst mit der Verbreitung des World Wide Web von Howard Rheingold (1993) geprägt wurde. Trotzdem gab es auch vorher diverse Onlinenachrichtensysteme und Gemeinschaftsplattformen, wie die schon genannten Usenet-Foren, BBS, Chaträume von MUDs und MOOs oder Mailinglisten, die zur virtuellen Vergemeinschaftung dienten. Castells argumentiert, dass aus diesen wiederum sehr heterogenen Kontexten die sozialen Strukturen für das Internet entstammen und verweist insbesondere auf die Nähe zur amerikanischen Gegenkultur und alternativen Weltsichten, die im Nachgang der 1960er in San Francisco entstanden waren (Castells 2001, S. 53). Hier startete unter anderem der Homebrew Computer Club, ein Hort der Computerbastler, in dessen Rahmen Steve Wozniak seinen ersten Apple Computer vorstellte (Isaacson 2011). 1985 entstand hier ebenfalls mit dem Whole Earth 'Lectronic Link (The WELL) eine der frühen Online-Communities, gegründet von den Pionieren Steward Brand und Larry Brilliant (vgl. Hafner 1995). Obwohl Castells zwar die Diversität und Bandbreite von Formen der Onlinevergemeinschaftung feststellt, schlussfolgert er zwei gemeinsame kulturelle Grundhaltungen oder Werte, die sich seiner Meinung nach generell ableiten lassen:

„The first one is the value of horizontal, free communication. The practice of virtual communities epitomizes the practice of global free speech, in an era dominated by media conglomerates and censoring government bureaucracies. […] The second shared value merging from virtual communities is what I would label self-directed networking. That is, the capacity for anyone to find his or her own Destination on the Net, and, if not found, to create and post his or her own information, thus inducing the network. From the primitive 1980s‘ BBSs to the most sophisticated interactive systems of the turn of the century, self-publishing, self-organizing, and self-networking

constitute a pattern of behaviour that permeates the Internet, and from diffuses from the Internet into the entire social realm“ (Castells 2001, S. 54 f.).

Die vierte kulturelle Strömung des Netzes, die „Entrepreneurs“ entstand erst mit der Privatisierung und Kommerzialisierung des Netzes in den 1990ern (ebd., S. 55 ff.). Innerhalb kürzester Zeit formierten sich kommerzielle Interessen an der Nutzung des Internets und bauten eine beachtliche ökonomische Macht auf, die allerdings mit dem Platzen der ersten Dotcom-Bubble um das Jahr 2000 vorerst ein Ende fand. Trotzdem ist auch diese Strömung eng mit den zuvor genannten verknüpft, Firmen wie Sun, Apple, Microsoft, Google oder Yahoo hatten ihre Wurzeln häufig in der Hackerkultur oder den virtuellen Gemeinschaften und haben ihr Geschäft häufig auf den Plattformen und der Software aus den offenen Systemen aufgebaut, weshalb viele auch heute noch eng mit dieser Kultur verknüpft sind. So werden viele Bereiche freier und Open-Source-Software immer noch durch die Firmen finanziert und unterstützt. Der offene Charakter wird, zumindest was die technische Plattform Internet angeht, auch weiterhin gepflegt und verteidigt, wie beispielsweise beim Engagement um die Netzneutralität sehr gut gezeigt werden kann (vgl.

Vogelsang 2010, Verständig 2016). Castells stellt fest, dass der Unternehmergeist des Silicon Valley sich im Vergleich durch relative Risikoarmut der Unternehmer auszeichnet, weil diese meist auf das Geld von Investoren angewiesen sind und im Fall des Misserfolgs lediglich ihre Idee verlieren und in meist sichere Jobs zurückkehren können. Insofern besteht die Unternehmerkultur einerseits aus Ideengebern und Experten, die eine Idee in Geld verwandeln wollen und andererseits aus Venturekapitalisten, die das Kapital dafür in der Hoffnung auf Erfolg zur Verfügung stellen wollen. Die Interessen gingen dabei in aller Regel weit auseinander.

Als Schlussfolgerung aus diesen vier Ursprüngen der Internetkultur ergibt sich für Castells, dass dem Netz eine technokratische Grundhaltung des Fortschritts des Menschen durch Technologie zugrunde liegt, die sich erst durch den entsprechenden Unternehmergeist von eher randständigen Weltanschauungen zu einer wirtschaftlichen und damit auch gesellschaftlichen Größe entwickelt haben. Diese Schlussfolgerung muss aber insbesondere vor den Veränderungen des Netzes im 21.

Jahrhundert relativiert werden.

Historisch endet Castells’ Betrachtung der Internet-Galaxie kurz vor dem ersten massiven Rückschlag in der Entstehung des Netzes, mit dem die sogenannte New Economy, die besonders stark wachsende Technologieunternehmen umfasste (in den USA repräsentiert durch den NASDAQ, an der Deutschen Börse durch den „Neuen Markt“), zu Beginn des Jahres 2000 aufgrund einer Spekulationsblase herbe Verluste verursachten und zahlreiche Unternehmen Konkurs anmelden mussten (eine kritische Betrachtung der Konsequenzen findet sich u.a. bei Lovink 2002).

Unabhängig von den ökonomischen Implikationen, die hier nicht von Interesse sind, markiert dieser Zeitpunkt aber auch den Beginn eines Transformationsprozesses des Internets und den Beginn der Entstehung neuer Anwendungen, Plattformen und Dienste, die zusammen mit der wachsenden Verbreitung des Internets auch gesellschaftliche Wandlungsprozesse initiiert hat.

4.1.3 Web 2.0 - Netzentwicklungen im 21. Jahrhundert

Mit Beginn des 21. Jahrhunderts und insbesondere nach dem Platzen der Dotcom-Blase trat eine deutliche Ernüchterung ein, was die „Revolution“ durch das Netz anging. Der Begriff Web 2.0 beschäftigte daher insbesondere das Web selbst, suggerierte er doch, dass nach dem Entstehen des WWW ein neuer Schritt in der Evolution bevorstünde. Schnell wurde er in vielfältigen wie auch unscharfen Auslegungen gebraucht und letztendlich als Modewort kritisiert und durch Begriffe wie

„Social Web“ weitestgehend im Diskurs ersetzt. Die Frage bleibt, welche Art der Erneuerung damit zusammengefasst werden sollte.

Der Begriff stammte ursprünglich von Tim O’Reilly, dessen Verlag 2004 erstmals die „Web 2.0 Conference“ veranstaltete und wurde von der gebeutelten Internet-Industrie dankbar aufgenommen. Die Diskussion, was genau dieses neue Web ausmachen sollte, wurde kontrovers geführt, war aber andererseits auch mit Hoffnungen verbunden. O'Reilly veröffentlichte auf dem Blog seines Verlages Ende 2005 seine Definition des Web 2.0 und stützte sich dabei auf folgende Merkmale:

• Neue Technologien im Browser und in der Programmierung wie beispielsweise AJAX ermöglichen komplexe Anwendungen (Rich Internet Applications) im Browser, die zuvor nur lokal auf dem eigenen Rechner möglich waren. Daraus ergeben sich vielfältige neue Möglichkeiten beispielsweise zur Kollaboration mehrerer Nutzer oder die Auslagerung von Daten oder Rechenaufwand in die „Cloud“ (Wolke), also auf Großrechnern und Datenzentren im Internet. Neue Formen von Benutzeroberflächen ermöglichen neue und zugänglichere Möglichkeiten der Interaktion.

• Nutzergenerierte Inhalte und kollektive Intelligenz als zentrales Merkmal moderner Web-Services sollen dafür sorgen, dass die Netzwerkeffekte der Verbesserung des Dienstes und der Nutzbarkeit dienen. Als Beispiel kann hier der Social Bookmarking Service del.icio.us33 dienen, bei dem Nutzer ihre Bookmarks einstellen und über selbstgewählte Stichworte kategorisieren (sogenannte Folksonomy), auf diese Weise werden Metadaten über Inhalte geschaffen, die ein Algorithmus niemals generieren könnte

• „Daten sind das nächste Intel inside“ und wer die Kontrolle über die Daten hat beziehungsweise einen vorhandenen Datenstamm noch mit Metadaten anreichert, verbessert seine Position im Wettbewerb. Beispiele dafür sind Angebote wie Amazon, die durch ihr „user review“ - System und den Ausbau ihrer Produktdatenbank Vorteile erlangt haben, aber auch Google Maps, die vorhandene Kartendaten zunächst benutzerfreundlich zugänglich gemacht und dann durch die Nutzer mit Meta-Informationen haben ergänzen lassen. Notizen, Bilder und selbst 3D Modelle können heute auf der virtuellen Karte betrachtet werden.

• Freie (=Offene) Standards zum Datenaustausch in Form von APIs und nicht-proprietären Formaten (WOA, web-oriented architecture) ermöglichen den relativ einfachen Austausch und die Kombination verschiedener Datenquellen, neue Formen der Darstellung und kontextabhängiger Kommunikation. Beispiele sind hier RSS Feeds, Microblogging und

33vgl. https://del.icio.us/

Mashups wie in Google Earth oder FriendFeed. Darüber hinaus entstehen auch freie Datenbestände wie Wikipedia oder OpenStreetMap analog zum Wechsel von proprietärer zu freier Software. (vgl. O'Reilly 2005)

Das „Web als Plattform“, so wie O'Reilly es beschreibt, ist aber nur eingeschränkt eine gute Definition für Web 2.0. Einerseits werden sehr heterogene Entwicklungen lose miteinander verwoben, andererseits geht es nicht ausnahmslos um Innovationen. Insbesondere freie und offene Standards und die neue, aktive Rolle des Nutzers scheinen, wenn man die vorherigen Analysen betrachtet, tief in der DNA des Internets angelegt zu sein.

Einerseits gab es daher durchaus Schlagworte und Ideen (oder vielleicht eher Hoffnungen) für ein neues Web wie beispielsweise Partizipation, soziale Netzwerke, Tauschen und Teilen, freie oder Open-Source-Software (vgl., Berry 2011, S. 59 f.), andererseits muss man vielleicht eher von einer Evolution sprechen, die gar nicht auf ein Web 2.0-Phänomen beschränkt war, sondern bis heute anhält. Kritiker gingen durchaus hart gegen den Begriff an, besondere Beachtung verdient vielleicht das häufig verwertete Zitat vom Erfinder des WWW, Tim Berners-Lee, aus einem Podcast-Interview:

„Web 1.0 was all about connecting people. It was an interactive space, and I think Web 2.0 is of course a piece of jargon, nobody even knows what it means. If Web 2.0 for you is blogs and wikis, then that is people to people. But that was what the Web was supposed to be all along.“34

Tatsächlich sind die wenigsten der mit Web 2.0 assoziierten Technologien tatsächliche Innovationen, so existieren Wikis schon seit 1995, AJAX Technologien (wie XMLHttpRequest) seit 1998, RSS seit 1997 und die zugrundeliegenden Theorien wie Stanley Milgrams „Small-World-Experiment“ (Travers & Milgram 1967) oder die Idee freier Software (1985) sind teilweise noch deutlich älter. Ähnlich wie das Entstehen des Internets aus dem ARPANET und seiner Weiterentwicklung, wie sie bei Castells rekonstruiert wird, scheinen auch hier wieder verschiedene Bestandteile, die für sich genommen längst vorhanden waren, in einer bestimmten neuartigen Kombination zu spannenden Konsequenzen geführt zu haben. Insbesondere der asynchrone Datenaustausch im Hintergrund ermöglichte im Web neuartige Anwendungen, die eine deutliche Transformationen bewirkt haben.

Der Begriff Web 2.0 war insofern eher ein zeitlich begrenztes Marketingphänomen, markiert aber tatsächlich den Beginn einer Transformation des Netzes, die aus heutiger Sicht sehr viel klarer betrachtet werden kann und mit anderen Begriffen belegt ist. Unter „Social Web“ fasst man heute die komplette Geschichte von sozialen Dimensionen des Netzes zusammen, beginnend mit den frühen virtuellen Communities wie „The WELL“ (vgl. Rheingold 1994) bis hin zu gegenwärtigen sozialen Netzwerken wie Facebook oder Instagram. Das Netz als Sozialraum, als Cyberspace, hat sich in den vergangenen 17 Jahren zweifellos verändert.

34vgl. https://www.ibm.com/developerworks/podcast/dwi/cm-int082206txt.html

Trotzdem scheint es sinnvoll einige Aspekte, die das Netz im Vergleich zum retrospektiv als Web 1.0 bezeichneten Phänomen verändert haben, herauszustellen.

• Das „Partizipative Web“ öffnete die eher zentralisierte Struktur des Netzes von wenigen Anbietern für eine große Gruppe eher passiver Nutzer. Dabei ist ein wichtiger Aspekt, dass die Nutzer nicht nur konsumieren, sondern Werkzeuge in die Hand bekommen um selber Inhalte zu produzieren und zu publizieren. „Durch diese Entwicklung wird der klassische Nutzer immer mehr zum sogenannten „Produser“ (also User plus Producer), zum Mitgestalter eines universellen Wissensnetzwerkes. Damit verliert er seine passive Konsumentenrolle und wird aktiver Teilnehmer an einem Netzwerk der Wissensproduktion [..]“ (Jörissen & Marotzki 2008). Auf der anderen Seite wird der Nutzer damit aber, offen oder verdeckt, zum Datenlieferanten.

• Das, was O’Reilly noch als das „neue Intel-Inside“ bezeichnete, entwickelte sich zu einem wachsenden Phänomen. Das Sammeln und systematische Auswerten, Aufbereiten und Verarbeiten von Daten steht bei großen Webangeboten im Fokus, tatsächlich hat sich aus dieser Grundhaltung des Phänomen „Big Data“ entwickelt. So ist das eigentliche Kapital von Amazon seine Produktdatenbank, die von Google seine Datenbank von Websites und Nutzern, die von Facebook der sogenannten „Social Graph“ und auch Wikipedia und seine angeschlossenen Projekte sind letztendlich komplexe Datenbanken, die durch eine Systematisierung in Information überführt werden können. Dahinter steckt ebenfalls immer eine ökonomische Verwertungslogik (vgl. Scholz 2008, Tapscott & Williams 2006)

• Als das Netz der Netze, verbindet das Internet verschiedene technische Rechnersysteme miteinander, moderne Webapplikation erreichen mit APIs und genormten Schnittstellen etwas Ähnliches im WWW. Dabei ist der klassische Webbrowser nicht länger der Endpunkt des WWW, vielmehr haben insbesondere im mobilen Bereich sogenannte Apps den Browser oftmals abgelöst. Diese sind häufig aber lediglich aufwändige Oberflächen für die Funktionen eines Onlinedienstes und können ihre Funktion ohne Verbindung ins Netz gar nicht erfüllen. Ein großer Teil der eigentlichen Daten sowie der Softwarelogik findet dabei im Netz statt und nicht notwendigerweise auf dem Endgerät des Nutzers.

Wie auch immer die Evolution bezeichnet wird, neue Anwendungen und Netzphänomene entstanden zuhauf. Beispiele dafür sind beispielsweise Weblogs oder Microblogging (beispielsweise via Twitter), die sowohl als neue Form des unabhängigen Journalismus als auch als digitales Tagebuch von Privatleuten genutzt werden, die Folksonomy zum kollektiven Klassifizieren von Netzinhalten (auch Tagging genannt), die Online-Video--Plattformen wie YouTube oder Vimeo, in denen Nutzer eigene Videos hochladen und einer breiten Öffentlichkeit präsentieren, die Inhalte kommentieren und diskutieren kann. Ferner entstanden Social Network Sites (Ellison &

boyd 2007) wie Facebook, MySpace oder StudiVZ, die als Nachfolger der persönlichen Homepages gelten, Millionen von Nutzern untereinander sichtbar vernetzen und damit die existierenden sozialen Grundlagen für lose Vernetzung in den Cyberspace übertragen haben.

O’Reilly selbst räumte später ein, dass er für das Web 2.0 keine gute Definition geliefert hatte (vgl.

Scholz 2008). Allerdings scheint die Vorläufigkeit was Begriffe und Konzepte für das Internet angeht ein anhaltendes Problem zu sein, wie die Diskussion um Anschlussphänomene und ihre Begriffe, aktuell beispielsweise die aufkeimende Diskussion um Industrie 4.0, Arbeit 4.0 oder Bildung 4.0 zeigen, die allesamt auf eine Erneuerung im Zeitalter digitaler Netze abheben, ohne dass eindeutig klar sein kann, wie sich diese Transformation darstellt oder woran sie festgemacht wird.

Angelehnt an Castells vier Ebenen der Internetkultur kann man ab 2000 folgende Phänomene und Entwicklungen festhalten: Auf der techno-meritokratischen Ebene wurde das Internet internationalisiert und es entstanden oder transformierten sich die kontrollierenden Institutionen.

So entstand beispielsweise ICANN als Dachgesellschaft zur Verwaltung und Vergabe von IP-Adressen und Namen im Internet sowie zur Pflege der dazu notwendigen Root-Server. Diese Aufgabe übernahm bis 1998 der Internetpionier John Postel als die sogenannte Internet Assigned Numbers Authority (IANA), die danach eine Unterorganisation des US-amerikanische Handelsministeriums wurde. Seit 2016 steht die ICANN offiziell nicht mehr unter Regierungsaufsicht und ist damit theoretisch politisch unabhängig (Ermert 2016a). Auch für die Internet Engineering Task Force (IETF), die sich mit den Internetstandards on Protokollen befasst, ist die Internationalisierung eine anhaltende Herausforderung (Ermert 2016b).

Auf der anderen Seite zeigt sich anhand der Diskussion um die Netzneutralität ein weltweites Bemühen um die Unabhängigkeit und Chancengleichheit im Netz, wobei sich offenbar das Spannungsfeld zwischen privaten, kommerziellen und staatlichen Interessen zu transformieren beginnt (vgl. Vogelsang 2010, Verständig 2016). Dies zeigt sich aber auch in der breiteren Problematik von Digitaler Ungleichheit (vgl. Iske 2004, Iske & Verständig 2014, Verständig et al.

2016). Zusätzlich hat es in den letzten Jahren immer wieder Phänomene gegeben, in denen Veröffentlichungen im Netz direkt und in globalem Ausmaß politische Auswirkungen gehabt haben. Beispiele dafür sind unter anderem zahlreiche große Datensätze von Wikileaks35, die Panama Papers36 und nicht zuletzt auch die Enthüllungen um die Praktiken der großen westlichen Geheimdienste durch Edward Snowden.

Die Hackerkultur stellt weiterhin zu einem großen Anteil die Infrastruktur für das Netz bereit, insbesondere durch freie und Open-Source-Software. Insbesondere für subversive Nutzungen des Internets entstehen hierfür notwendige Werkzeuge, die einerseits zum Schutz der Privatsphäre und vor staatlicher oder privater Überwachung genutzt werden, gleichzeitig aber auch Schutz für politische unerwünschte oder kriminelle Machenschaften bieten können. Software wie beispielsweise Tor ermöglicht sichere und anonymen Datenaustausch im Netz, mit Bitcoin hat sich ebenfalls eine alternative Online-Währung entwickelt, die unter anderem zum anonymen Geldtransfer genutzt werden kann. Die Hackerkultur wird auch von kommerziellen Unternehmen dabei insoweit unterstützt, wie es deren gemeinsamen Interessen entspricht. So unterstützen

35vgl. https://www.wikileaks.org/

36vgl. http://panamapapers.sueddeutsche.de/

große Unternehmen wie Google, Apple, Oracle, Twitter oder Facebook die Entwicklung freier Software oder stellen gar eigene Software quelloffen zur Verfügung, profitieren im Gegenzug aber auch davon, dass Sie die Infrastruktur des Netzes, von der sie ja abhängig sind, erhalten und weiterentwickeln können.

Auf der Ebene der Entrepreneur-Kultur hat sich die Privatisierung und Kommerzialisierung des Netzes nicht nur sichtlich erholt, sondern ist stark gewachsen. So starteten beispielsweise mit Yahoo und Google 2001 zwei Firmen, die das Netz über Suchmaschinen zugänglich machen wollten und sich in den folgenden 15 Jahren (sehr unterschiedlich stark) zu dominanten Mächten am Markt und im Netz entwickelt haben. Das Zeitalter des sozialen Netzwerks führte zum Aufstieg diverser Dienstleister, an deren Spitze wohl aktuell Facebook steht. Dabei ist ein verbindendes Element, dass Nutzer für die Dienstleistung in aller Regel nicht direkt bezahlen müssen, sondern sich die Dienste über Werbung finanzieren. Der besondere Kniff liegt darin, dass die Werbung auf Basis der Daten, die ein Dienst über seine Nutzer gesammelt hat, gezielt zugeschnitten werden kann und somit als effektiver gilt. Insofern stellt sich diese Entwicklung als Konsequenz der Vermutungen O’Reillys dar. Damit ein soziales Netzwerk kommerziell erfolgreich sein kann, ist es also darauf angewiesen, möglichst viele Daten über möglichst viele Nutzer zu erheben. Dabei stehen sich einerseits die Netzkulturen selbst (z.B. Hackerkultur und Entrepreneur-Kultur) diametral gegenüber, müssen sich aber ebenfalls noch mit vorhandenen gesellschaftlichen Interessen auseinandersetzen, woraus zahlreiche Reibungspunkt entstehen, die aktuell beobachtet werden können.

Während des Internets zu Beginn der Web 2.0-Diskussion noch relativ deutlich an bestimmte Endgeräte gekoppelt war, also ähnlich funktionierte wie das Fernsehgerät für das Fernsehen oder das Telefon für das Telefonnetz, begann spätestens mit dem Aufkommen der Smartphones 2006/2007 und weiteren Endgeräten der Post-PC-Ära37 die Vernetzung von mobilen und anderen Endgeräten (wie beispielsweise Kühlschränken oder Autos mit Computern). Die Ubiquität des Netzes wird vor allem dadurch zementiert, dass es jederzeit und von überall her verfügbar ist.

Nahezu jeder Aspekt gesellschaftlichen Lebens ist zumindest an das Netz angekoppelt, wenn er nicht schon vollständig dorthin gewandert ist. Auf mobilen Plattformen wird mit Apps die Oberfläche des klassischen Webbrowsers mehr oder weniger abgelöst, die Protokolle und darunterliegende Technologien bleiben aber erhalten und entwickeln sich weiter. Im abschließenden Kapitel werden anhand einer Auswahl von beispielhaften Netzphänomenen noch gezeigt werden, wie breit das aktuelle Netz aufgestellt ist und welche Implikationen sich für Daten, Informationen und Wissen ergeben können. Dazu sollen im nächsten Schritt zunächst generelle Strukturmerkmale des Netzes herausgearbeitet werden.

37Darunter fallen neben den Smartphones auch Tablet-PCs sowie Hybridgeräte wie mobile Spielkonsolen.