• Keine Ergebnisse gefunden

5 STRUKTURMERKMALE DES NETZES UND DEREN BEDEUTUNG FÜR WISSEN UND BILDUNG

5.3 Beispiele für Wissenstypen anhand digitaler Phänomene

5.3.1 Beispiel 1: Wikipedia

recht spezifischen Eigenschaften und wurde aufgrund seiner Größe und langanhaltenden Präsenz schon sehr gut erforscht.70 Trotzdem können Wikis in sehr unterschiedlichen Ausformungen auftreten, weshalb es notwendig ist, einige Strukturmerkmale der Wikipedia hervorzuheben, ohne hier eine wirkliche Strukturanalyse durchführen zu können oder zu wollen (vgl. Holze 2009). Jan Sebastian Schmalz nimmt dazu eine Differenzierung in zwei Typen vor und nennt diese „Projekt-Wiki“ und „Netzwerk-„Projekt-Wiki“ (Schmalz 2007, S. 6). Diese Differenzierung ist analytisch und dient lediglich dem Ziel, Organisationsstrukturen besser illustrieren zu können. Für die Organisationsform der Wikipedia läßt sich daraus ableiten, dass zwar in Bezug auf bestimmte Eigenschaften von einer virtuellen Gemeinschaft gesprochen werden kann, aber das Gesamtkonstrukt eher ein virtuelles Netzwerk darstellt, in dem die Teilnehmer größtenteils anonym sind (sich also nicht persönlich kennen) und primär themenbezogen kommunizieren. Es bilden sich so Heterarchien, die aber zeitlich und inhaltlich begrenzte Hierarchien hervorbringen, weil „Rollen sich dynamisch und kompetenzabhängig aus dem Arbeitsprozess heraus entwickeln und nicht präkonstituiert sind. […] Heterarchisch organisierte Wikis befinden sich also im Spannungsfeld zwischen temporärer Hierarchisierung und prinzipieller Handlungsfreiheit“

(Schmalz 2007, S. 11).

Dieses Spannungsfeld wirkt sich in Anbetracht des Anspruchs der Wikipedia auf den Prozess der Dokumentation von Wissen aus, indem kontinuierlich etablierte explizite und implizite Rollen, Richtlinien und Konventionen auf dynamisch verhandelbare Gegenstücke treffen. Dieser Gegensatz wird auch an verschiedenen Stellen in der Wikipedia selbst aufgegriffen und ist insofern spezifisch, als dass damit der Prozess der Wissensgenerierung von vornherein als selbstreguliert und dynamisch institutionalisiert gerahmt wird und ferner einem sozialen System, das sich ebenso ständig verändern kann, unterworfen ist. Der zuvor eingeführte Begriff des systemischen Wissens ist mit Blick auf die Wikipedia in zweierlei Hinsicht interessant: Zum einen deutet der enzyklopädische Anspruch in Wikipedia auf das Relevanzsystem für eine gesellschaftliche oder kulturelle Ebene hin. Es ist der Anspruch ein Wissen, dass wir auf Ebene der Gesellschaft konstituieren, durch einen entsprechenden Prozess zu kodifizieren und zu validieren. Wikipedia stellt sich insofern also als Struktur dar, die Wissen als Informationen für diese Form der Organisation (üblicherweise fragmentiert in unterschiedliche Sprachen und damit verbundene Kulturkreise) sammelt, in Bild und Text kodifiziert und wieder verbreiten will. Sie ist bei weitem nicht die einzige gesellschaftliche Institution mit diesem Anspruch, aber ein besonders aktuelles Beispiel für eine solche Institution im Internet mit dessen spezifischen Strukturmerkmalen. Zum anderen ist die Wikipedia selbst ein komplexes sozio-technisches System, welches im Sinn Willkes durch seine Struktur Wissen beinhaltet, in Form von formalisierten Richtlinien und Regeln, aber auch durch informelle Konventionen. Es stellt einen eigenen Relevanzkontext dar, um letztendlich die Frage der Relevanz, also welches Wissen einen enzyklopädischen Status hat, zu erörtern. Der Aushandlungsprozess, der zu einer bestimmten Form und bestimmten Qualifizierungen für Artikel

70 Eine umfängliche Übersicht über Forschungsarbeiten findet sich im Meta-Wiki (https://meta.wikimedia.org/wiki/Research:Index) sowie in einer Übersicht der englischsprachigen Wikipedia (https://en.wikipedia.org/wiki/Wikipedia:Academic_studies_of_Wikipedia)

führt, setzt selbst eine Wissensstruktur voraus, die man aus unterschiedlichen Perspektiven betrachten kann. Eine mögliche Betrachtung stellt das Phänomen des Edit-Wars und seine Bedeutung im Kontext der Wikipedia dar (vgl. Holze 2017). Im Kontext dieser Arbeit wird das Projekt Wikipedia als eines von mehreren Beispielen dazu dienen, Konsequenzen, die sich aus den zuvor erarbeiteten Strukturmerkmalen ergeben, zu illustrieren. Dazu ist es notwendig einige grundlegende Aspekte über die Funktionsweise von Wikipedia vorauszuschicken.

Grundsätzlich kann jeder Artikel in Wikipedia von jedem Nutzer (auch anonym) bearbeitet werden.

Lediglich zentrale oder aktuell umstrittene Themen werden von dieser Regel ganz oder zeitweise ausgenommen. Jede Veränderung wird als Version des jeweiligen Artikels gespeichert, in der Versionsgeschichte kann also jede Bearbeitung nachvollzogen und im Zweifel rückgängig gemacht werden. Für Erläuterungen und Diskussionen zu den jeweiligen Artikeln gehört zu jedem Beitrag eine Diskussionsseite. Dort können Autoren Überarbeitungen vorschlagen oder ihre eigenen Änderungen falls nötig argumentativ begründen, diese Diskussion ist ebenfalls öffentlich lesbar.

Eine Diskussionsseite gibt es auch für jeden angemeldeten Benutzer.

Wikipedia definiert, ähnlich wie ein Algorithmus nur einige wenige grundlegende aber auch unumstößliche Richtlinien71. Die möglicherweise wichtigste stellt der sogenannten NPOV (Neutral Point of View, neutraler Standpunkt)72 dar. Diese Richtlinie besagt, dass Beiträge redaktionell neutral sein sollen und bei sich widersprechenden Standpunkten nach Möglichkeit alle Standpunkte nebeneinander ohne Bevorzugung in einem Artikel dargelegt werden müssen. Ferner darf in der Wikipedia keine Theoriefindung, sondern lediglich Theoriedarstellung stattfinden. Das bedeutet, dass in Wikipedia nur „bekanntes Wissen“ (genau genommen bekannte Informationen), also schon zuvor in anderen möglichst zuverlässigen Primär- und Sekundärquellen veröffentlichte Informationen, thematisiert wird.

Ferner müssen das Urheberrecht, eine Liste von Dingen die Wikipedia nicht ist73 und die zentrale Forderung nach Belegen sowie die Wikiquette (eine Variante der Netiquette) beachtet werden.

Darüber hinaus gibt es zahlreiche eher pragmatische Konventionen, beispielsweise was Formatierungen, Namensvergabe oder Ordnungsstrukturen angeht. Sie sind grundsätzlich verhandelbar, haben sich aber organisch aus der wachsende Community heraus entwickelt. Das mehrstufige Regelwerk ist differenziert, was es überaus komplex und bisweilen kompliziert macht.

Soziales Handeln wird in Wikipedia durch das explizite und implizite Regelwerk ermöglicht. Zur Teilhabe und Teilnahme am kollaborativen Prozess ist das Einhalten oder Aushandeln dieser Regeln notwendig. Bestimmte technische Funktionen der Plattform verweisen auf Wissen in Form der Softwarestruktur, während andere Teile auf Wissen als Basis der Organisationsstruktur und damit auf das Wissen der Handelnden (die wiederum verschiedene Rollen ausfüllen können) verweisen. Dabei eignet sich Wikipedia also anscheinend hervorragend um die Komplexität verschiedener Ebene von Information als Gegenstand zu illustrieren und ist selbst Teil eines Prozesses, der Wissen (im Sinne von kulturellem Wissen) hervorbringen soll. Dabei ist der

71vgl. https://de.wikipedia.org/wiki/Wikipedia:Richtlinien

72vgl. https://de.wikipedia.org/wiki/Wikipedia:Neutraler_Standpunkt

73vgl. https://de.wikipedia.org/wiki/Wikipedia:Was_Wikipedia_nicht_ist

Prozess Wikipedia selbst gar nicht hinreichend, um zuverlässige Informationen hervorzubringen, vielmehr verlässt man sich dort zumindest zu einem signifikanten Teil auf etablierte Prozesse, wie beispielsweise wissenschaftliche Methoden und Konsens. In dem man explizit auf Quellen angewiesen ist, übernimmt man natürlich neben deren Legitimation auch die Zuverlässigkeit, die zwar unterschiedlich stark sein kann, aber zumeist auf etablierte und erprobte Prozesse wie das Peer-Review oder journalistische Qualitätskriterien zurückgreift. Darüber hinaus gibt es eigene Gütekriterien (Artikelauszeichnungen) und eigene Prozesse, wie beispielsweise die überprüften Artikel, bei denen ein Artikel entsprechend markiert wird, wenn er von mehreren Autoren überprüft wurde. Hier liegt also ein eigenes Peer-Review-System vor. Wikipedia stellt insofern eine Mischform aus sozialen und technischen Algorithmen dar.

An dieser Stelle kann keine systematische Analyse durchgeführt werden. Implizite Vorarbeiten dazu finden sich im Rahmen der Bachelorarbeit des Autors (Holze 2009), die im Kern eine online-ethnografische Analyse (vgl. Marotzki 2003) der deutschsprachigen Wikipedia zum Gegenstand hatte. Demnach ließen sich dort zahlreiche Strukturmerkmale einer Online-Community feststellen:

Es gibt eine technische Infrastruktur (wenn auch nur mit einer abstrakten Leitmetapher, nämlich der einer Enzyklopädie), ein komplexes Regelwerk, eine soziografische, eine Informations- sowie eine Kommunikationsstruktur.74

Wikipedia verinnerlicht dabei ebenso die zuvor genannten Strukturaspekte des Internets: Das Projekt kann quasi unendlich ausgebaut werden, es gibt kein vorherbestimmtes Limit wie groß Wikipedia sein kann. Es ist offen, kann also von jedem erweitert oder verändert werden. Wikipedia gibt nicht vor, was mit den Informationen, die es sammelt, gemacht werden kann. Sie stehen unter einer freien Lizenz und erst die Nutzenden entscheiden, was damit geschieht. Erst am Endpunkt wird beispielsweise klar, ob aus Informationen Wissen und welche Art von Wissen daraus wird.

Dabei ist Wikipedia zwar textlastig, aber auch eines der größten Foto- und Grafikarchive der Welt.

Mit einer integrierten Vorlesefunktion und anderen Werkzeugen ist eine Umwandlung zwischen verschiedenen Zeichensystemen möglich. Sprachliche (und gegebenenfalls auch kulturelle) Grenzen werden beispielsweise dadurch überwunden, dass zu jedem Lemma alle verfügbaren Sprachversionen angeboten werden. Wikipedia ist ein Archiv, ein Informationsspeicher, aber auch ein Verteiler, weil es beispielsweise standardisierte Schnittstellen zu seiner Datenbank anbietet. Es ist ein organischer, dynamischer Prozess, wie er nur im Medium des Internets denkbar ist. Gleichzeitig steckt in der Struktur von Wikipedia (der Software, den Regeln und der sozialen Struktur) eine Ideologie, in Bezug auf den Umgang mit Informationen und den Umgang miteinander, um dieses Ziel zu verfolgen. Wikipedia stellt selbst also einen komplexen Algorithmus zur Sammlung möglichst objektiver, zuverlässiger Informationen dar.

Dieser Prozess selbst könnte als eine Wissensstruktur interpretiert werden, also ein eigener erfahrungsbasierter Kontext. Er orientiert sich an den Modi der Wissenschaft und des Journalismus und setzt diese auch voraus, weil dadurch die Quellen konstituiert werden, auf die sich Wikipedia stützt.

74Es gibt auch diverse Online-Offline-Aktivitäten, die aber im Rahmen dieser Betrachtung von randständigem Interesse sind.

Das Ziel der Wikipedia ist eine Sammlung von Informationen als Basis für kulturelles Wissen. Sie eifert damit dem Ziel der „Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers“ aus dem 16. Jahrhundert nach, Informationen systematisch zu sammeln, zu sortieren und festzuhalten. Hier kann man vielleicht von kulturellem Wissen sprechen im Sinne eines klassischen Wissenskanons. Der primäre Grund, warum man aber bei diesem Projekt von einer Informationssammlung sprechen kann, ergibt sich aus den Praktiken. Denn aus den Praktiken, den Regeln und den Konventionen, der Kollaboration der tausenden von freiwilligen Autoren ergibt sich der Kontext, in dem zuverlässige Informationen generiert und verfügbar gemacht werden. Der Gegenstand von Wikipedia ist im Anschluss an das systematische Wissensmanagement Information, nicht Wissen. Es geht um kodifizierte Daten, die in einen Kontext gebracht werden. Das Projekt stellt diese nur zur Verfügung. Der Prozess selbst allerdings, die Praxis der Informationssammlung und -strukturierung, der im Austausch von Informationen, im Hinzufügen und Weglassen, im Abwägen von Relevanzkriterien besteht, kann als ein Wissensprozess interpretiert werden, weil er auf Wissen und Wissende verweist. Der Kontext ist die Organisation Wikipedia, die seit mittlerweile 16 Jahren an diesem Prozess feilt und ihn über die Jahre weiterentwickelt hat. Der Prozess ist flexibel, er setzt zuverlässige Quellen voraus, diese können aber von überall herkommen. Sollte ein neuer Prozess, ein neuer Algorithmus entstehen, der zuverlässige Quellen produziert, so können diese genauso in Wikipedia referenziert werden wie heute Bücher und andere Publikationen.

Spannend ist auch, dass trotz des universalen Charakters keine pauschale Ideologie des Gleichmachens oder der Uniformität entstanden ist, obwohl beispielsweise die englischsprachige Wikipedia, was die Artikelanzahl betrifft, dominant ist. Betrachtet man die deutschsprachige Wikipedia so zeigen sich kulturell gefärbte Unterschiede bei Relevanzkriterien und auch im Umgang mit Informationen (vgl. Pfeil et al 2006). Ferner gibt es Wikipedia nicht nur in vielen Weltsprachen, sondern auch in eher regionalen Dialekten (beispielsweise nordfriesisch oder plattdeutsch) und seltenen Sprachen (Esperanto oder Interlingua). Ein relevanter Teil der Wissensstruktur liegt auch in der Software, die im Fall von Wikipedia Open-Source-Software ist, was bedeutet, dass ihr Quellcode öffentlich einsehbar und modifizierbar ist. Es entsteht somit ein komplexes Wechselspiel zwischen den Möglichkeiten sozialen Handelns innerhalb des aufgespannten sozio-technischen Raums und der Option, diesen durch Änderungen am Quellcode umzugestalten.

Wikipedia und Expertenwissen / Wissenschaftliches Wissen

Betrachtet man die Identitätsstruktur und die soziografische Struktur von Wikipedia, fällt auf, dass Expertentum in der Auseinandersetzung um verlässliche Informationen weniger eine Rolle spielt als beispielsweise ein guter Ruf in der Community. Da die Gültigkeit von Daten anhand von Quellen belegt werden muss, ist beispielsweise eine akademische oder andere formale Qualifikation unbedeutend für die Frage, ob eine Bearbeitung akzeptiert wird. Ein über lange Zeit zuverlässig arbeitender Autor ohne Qualifikation geniest im Zweifel kein geringeres

Ansehen in der Gemeinschaft als ein neu angemeldeter Universitätsprofessor, selbst wenn es ausschließlich um Beiträge in seinem Fach ginge. Exemplarisch kann das beispielsweise anhand des Phänomens der Edit-Wars gezeigt werden (Holze 2017). Dort zeigt sich auch: Selbst die in der formalen Hierarchie höhergestellten Administratoren haben keine besondere inhaltliche Deutungshoheit, sie bestimmen lediglich über Verfahrensfragen, weil sie im Zweifel die Regeln und Konventionen besser überblicken als der durchschnittliche Nutzer.

Nico Stehr argumentiert in seiner aktuellen Auseinandersetzung mit der Rolle von Wissen für Gesellschaften, dass das Expertentum in Bedrängnis gerate, er spricht von der „Zerbrechlichkeit der Expertise“ (Stehr 2015, S. 357 ff.). Dabei wird argumentiert, dass mit dem Expertenwissen als Spezialwissen immer eine Zentralisierung von Wissen einhergehe, sowie die Idee, dass bestimmtes vielleicht gar „besseres Wissen“ für die Öffentlichkeit unzugänglich und den Experten vorbehalten sei. Diese Ansicht stellt Stehr in Frage. Das Grundmuster „Der Fluss des Wissens geht ausschließlich von den Experten zu den Laien.“ (ebd. S. 358) träfe eben nicht mehr unvoreingenommen zu. Dabei verweist er auf empirische Forschung, die zeige, dass bestimmten wissenschaftlichen Forschungsergebnissen (wie beispielsweise dem klaren Konsens im Bereich der Klimaforschung zum Thema Erderwärmung, vgl. Schwägerl 2016) in der Öffentlichkeit mit deutlicher Skepsis begegnet würde. Stehr spricht hier von einem „Filter aus Wertvorstellungen“, der letztendlich die Expertise der Experten in Frage stellt, nicht weil Sie faktisch falsch seien, sondern weil eben die Systematik der Faktengewinnung in Zweifel gezogen wird. Das asymmetrische Verhältnis zwischen Zivilgesellschaft und Expertenwissen sei aber überwindbar, wenn die nötige Nähe vorhanden sei. Tatsächlich zeigt aber das Beispiel Wikipedia, dass dieses Modell unzureichend die Realität abbildet, insbesondere was ein Faktenwissen betrifft, dass sich nicht in einer aktuellen Debatte befindet. Wikipedia bedarf eben gerade keines wissenschaftlichen oder redaktionellen Expertenwissens für den eigentlichen Prozess, weil sie erst nach dem Schritt der Verifizierung ansetzt und Informationen erst dann aufgreift, wenn sie den genannten Kriterien schon entsprechen. Damit werden Informationen einerseits restrukturiert und rekontextualisiert, gleichzeitig werden sie einer potentiell breiten Öffentlichkeit mit wenig Aufwand zugänglich gemacht. Weil Expertenwissen aus unterschiedlichsten Bereichen gesammelt wird, scheint man damit einem zentralistischen und abgeschlossenen Konzept von Expertenwissen entgegenzuwirken. Expertenwissen verliert scheinbar seinen Charakter der sozialen Abgeschlossenheit und damit verändert sich gegebenenfalls auch die Stellung des Experten in der Gesellschaft. Nicht in dem Sinn, dass seine Expertise unnötig oder redundant würde, sondern in der Form, dass sie hinterfragt werden kann und auch wird. Dies zeigt sich schon bei oberflächlicher Betrachtung auf den Diskussionsseiten von Wikipediaartikeln, wo der Prozess über dem Experten steht. Das gilt auch dann, wenn es nicht um einen formell qualifizierten Experten geht. So gibt es eine Anekdote über den 2008 verstorbenen Drehbuchautor Oscar Brodney, dessen Tod der Familie indirekt über den entsprechenden Wikipedia-Artikel mitgeteilt

wurde.75 Dabei wurde die entsprechende Änderung zum Sterbedatum trotz Bestätigung der Familie wieder zurückgenommen, weil es einer unabhängigen Quelle aus dritter Hand bedarf, um den Tod einer Person in Wikipedia zu vermerken. Das mag im Einzelfall irritierende Konsequenzen haben (erst nach Monaten konnte ein öffentlich verfügbares Dokument den tatsächlichen Tod belegen), zeigt aber, dass die Zuverlässigkeit von Informationen in der Wikipedia ein hohes Gut ist und dass dem Spezialwissen, so es nicht plausibel belegbar ist, dabei nicht aus sich selbst heraus höhere Verlässlichkeit zugebilligt wird. Expertenwissen traditioneller Art ist im Aushandlungsprozess der Wikipedia nicht besonders präsent oder relevant. Der komplexe Algorithmus zur Findung und Anwendung von Relevanzkriterien wird ständig wiederholt beziehungsweise zumindest regelmäßig in Frage gestellt. Pragmatisch betrachtet handelt es sich dabei aber immer noch um Rezeptwissen, welches lediglich nachjustiert werden kann, um ein gewisses Ergebnis zu produzieren. Die Frage, inwiefern aber die angelegten Kriterien selbst akzeptabel sind, kommt dabei nicht auf, weil sie auf einer anderen Ebene – der Ebene der Quellen – verhandelt wird.

Ein sehr klares Gegenbeispiel zum Umgang der Wikipedia mit verschiedenen Wissensformen als Quelle für Informationen soll im zweiten Abschnitt gemacht werden, wenn es um das Frage-und-Antwort-Netzwerk Quora geht.