• Keine Ergebnisse gefunden

6.3 Wissenstechniken

6.3.3 Modellieren als Hinwendung zur Welt

Die Fähigkeit des Menschen, unterschiedliche Sichtweisen – Haltungen – einzunehmen, ist eine der erstaunlichsten. Sie ermöglicht es ihm, mit seiner Umwelt zu interagieren, auch wenn er sie nicht komplett versteht. Der Mensch ist Zeit seines Lebens vor allem ein konstant Lernender.

Jeder Lernende, vom Kind zum Greis, kennt Situationen, in denen Intuition und Beobachtung nicht vereinbar sind. In unserer Kultur hat sich die Forderung

durchge-352. Andrew H o d g e s: Alan Turing: The Enigma (The Centenary Edition), Princeton University Press, 2012, S. 378.

353. Nun, zumindest theoretisch nicht. Praktisch hat jedes System Sicherheitslücken, die sich ausnutzen lassen. Der politische oder militärische Gegner muss niemanden abwerben, im Falle eines Computersystems ist da ja auch niemand, er kann es einfach übernehmen (»pwned«).

354. Bei Wittgenstein heißt es bekanntlich im siebten und letzten Abschnitt: »Wovon man nicht spre-chen kann, darüber muss man schweigen.« LudwigW i t t g e n s t e i n: Tractatus logico-philosophicus.

Tagebücher 1914-1916. Philosophische Untersuchungen, Frankfurt am Main: Suhrkamp Verlag, 2011.

6.3. WISSENSTECHNIKEN

setzt, dass wir unserer (ungeschulten) Intuition nicht vertrauen dürfen, sondern nur unserem (geschulten, formalisierten) Wissen, das wir vor allem dank der Wissenschaft von der Welt haben.

Der Blick des Wissenschaftlers auf die Welt unterscheidet sich von dem eines Kindes nur insoweit, als dass er gelernt hat, seine Intuition, seine Wahrnehmung und sein formal-logisches Denken in eine fruchtbare Beziehung zu bringen. Er unterdrückt seine Intuition nicht, er schult sie. Er verändert seine Haltung zur Welt, hinterfragt ständig seinen eigenen Standpunkt, nimmt nichts als unbeweglich hin.

Er erkennt die »Wahrheit« scheinbar mühelos. »Wie man leicht sieht, . . . « steht ab und an zwischen zwei mathematischen Formeln, die auf den ersten Blick nichts mitein-ander gemein haben. Der Pädagoge Seymour Papert formuliert diese »fundamentale Tatsache des Lernens«:

Anything is easy if you can assimilate it to your collection of models. If you can’t, anything can be painfully difficult. [. . . ] What an individual can learn, and how he learns it, depends on what models he has available.355 Die Informatiker modellieren, um zu verstehen. »To program is to understand« ist ein berühmter Ausspruch, der Kristen Nygaard zugesprochen wird. Dennoch geht es in der Informatik um mehr als nur um Programmieren. Modellieren ist eine schöpferische, sehr reflektierende Tätigkeit, die die Informatik von ihrem Prolegomenon geerbt hat:

die Kybernetik wollte ihrem Selbstanspruch nach universell jedes beliebige Problem beschreiben, modellieren und optimieren können, sie wollte eine Universallehre der Steuerung beliebiger Systeme darstellen.356

Der universelle Anspruch wird deutlich, wenn man sich die kybernetisch model-lierten Probleme ansieht: Vom simplen Kochvorgang bis hin zur Organisation der Ökonomie eines ganzen Landes – alles folgt den gleichen simplen Regeln bzw. Re-gelkreisläufen. Die Kybernetik (und die Informatik nach ihr) betrachtet in einem gewissen Sinne alle gesellschaftlichen Probleme rein als Organisations- und Optimie-rungsprobleme.

In der Kybernetik galt es aber auch, diesecond order observation zu thematisieren, also die Beobachtung des Beobachters zu beschreiben, die Steuerung des Steuermanns, kurz die Kybernetik der Kybernetik zu entwickeln, um nicht einer mechanistisch-naiven Denkweise zu verfallen, wie Heinz von Foerster mahnte:

Der Irrtum dieser glänzenden und hochbegabten [KI-Forscher] war es zu glauben, man bekomme immer bessere Modelle, um das Gehirn zu verstehen. Aber was hier übersehen wurde, war, daß man ein Gehirn braucht, um ein Gehirn zu verstehen und Modelle von ihm zu entwickeln.

Eigentlich muß man sich selbst erklären und verstehen, um das Gehirn zu begreifen. Die Struktur der Theorie, die ich meine, muß den Anspruch erfüllen, sich selbst zu beschreiben: Das ist, symbolisch gesprochen, der Ouroboros, die Schlange, die sich in den Schwanz beißt.357

355. Seymour Pa p e rt: Mindstorms, 2nd Edition, New York: Basic Books, 1993, S. xix, zu der Vereinbarkeit von Intuition und Beobachtung siehe ibid., S. 142-144.

356. Siehe dazu das Kapitel 3.1.4 über Allendes »Synco«.

357. Heinz von F ö r s t e rund Bernhard P ö r k s e n: Wahrheit ist die Erfindung eines Lügners.

Gespräche für Skeptiker, 3. Auflage, Heidelberg: Carl-Auer-Verlag, 1999, S. 81.

154

KAPITEL 6. DER ÖFFENTLICHE VERNUNFTGEBRAUCH

In der Informatik vermisst man eine solche Observation der zweiten Ordnung, die Beschreibung einer Informatik der Informatik ist nur in Ansätzen vorhanden, die Forderung nach einer Theorie der Informatik steht auch schon seit mehreren Jahrzehnten im Raum.358

Am Beispiel der Modellierung wird das sehr deutlich. Vor ein paar Jahrzehnten waren Computersysteme nicht in der Lage, sehr große Datenmengen zu speichern, geschweige denn, zu verarbeiten. Die Harvard Mark I beispielsweise konnte gerade einmal drei Additionen pro Sekunde durchführen, was ein guter (menschlicher) Skatspieler beim Auszählen seiner Stiche locker schafft. In ihrem Speicher konnte sie bis zu 72 Zahlen in einem 23-Bit-Dezimalcode halten, was dazu führte, dass der (menschliche) Operator komplexe Vorgänge auf einfache Rechenoperationen und -anweisungen herunterbrechen musste, die das System schließlich verarbeiten konnte.

Das Herunterbrechen komplexer Vorgänge auf einfachere Modelle ist eine enorme kognitive Leistung. Diese didaktische Verkürzung beherrschte die Informatikerin (avant le mot) und Flotillenadmiralin Grace Hopper, die stets eine »Nanosekunde«

in ihrer Handtasche dabei hatte: Es handelt sich hierbei um einen Draht mit der Länge, die das Licht in einer Nanosekunde zurücklegen kann. Hopper sah auch die Notwendigkeit, Computerprogramme für Menschen verständlich darzustellen, ein Gedanke, der schließlich zur Entwicklung von c o b o l führte, einer Programmierspra-che, die an die natürliche Sprache angelehnt ist (»ADD 1 TO A«) und insbesonders für datenintensiven Anwendungen eingesetzt werden sollte.

Ein anderer Computerpionier hat es einmal sehr schön ausgedrückt. Früher hätten Wissenschaftler ein Problem nur dann in den Computer eingegeben, wenn sie es verstanden hätten, so Joseph Weizenbaum; heute werden nur solche Probleme in den Computer eingegeben, die nicht verstanden werden:

Daß unsere Gesellschaft sich zunehmend auf Computersysteme verläßt, die ursprünglich den Menschen beim Erstellen von Analysen und Treffen von Entscheidungen »helfen« sollten, die jedoch seit langem das Verständnis derjenigen übersteigen, die mit ihnen arbeiten und ihnen dabei immer unentbehrlicher werden, das ist eine sehr ernste Entwicklung.359

Fehlende Reflexion mag unerhört genug klingen, in der Informatik gibt es inzwi-schen jedoch weitaus Unerhörteres: Unter dem Schlagwort »Big Data« wird eine Beleidigung der Wissenschaft zur Prominenz geadelt. Ohne Hypothese, ohne Modell, ohne wissenschaftliche Fragestellung werden so viele Daten wie möglich gesammelt und dann kreuz und quer miteinander in Relation gesetzt, bis ein Muster zu Tage tritt, das ein Mensch interpretieren kann. Im Anschluss wird dieser Korrelation eine im Anschluss (ex post) vermutete Ursache zugeschrieben, die man dann statistisch bestätigt.

Auf der technisch-syntaktischen Ebene ist Big Data ein lohnendes Untersuchungs-objekt. Es ist nach wie vor eine Herausforderung, Daten zu verarbeiten, die nicht komplett in den Speicher passen oder die von mehreren Maschinen gleichzeitig ver-arbeitet werden. Meine Kritik bezieht sich daher ausdrücklich auf die inhaltliche

358. C o y: Für eine Theorie der Informatik (wie Anm. 21).

359. W e i z e n b a u m: Die Macht der Computer und die Ohnmacht der Vernunft (wie Anm. 223), S. 311.

6.3. WISSENSTECHNIKEN

Aussagekraft der Ergebnisse, nicht auf die durchaus interessanten Methoden der Datenverarbeitung und die spannende Entwicklung im Bereich der Datenbanken, sei es Googles »Big Table« oder Facebooks »Cassandra«. Die Kritik richtet sich gegen die Vorgehensweise, eine möglichst große Menge an Datenpunkten zu verarbeiten und miteinander zu korrelieren, um zu einer Arbeitshypothese zu gelangen:

Man stelle beliebig ausgedachte »Theorien« und zugehörige Hypothesen-Paare auf, wähle jeweils eine davon zufällig als Nullhypothese aus und ordne ebenfalls zufällig Probanden der Experiment- oder der Kontrollgrup-pe zu. Nun gilt bei sozialen und psychologischen Fragestellungen, dass praktisch immer einschlägige Beziehungen zwischen untersuchten Grup-pen existieren, weil irgendwie alles mit allem mittelbar zusammenhängt.

Und zweitens ist es eine Eigenschaft der statistischen Verfahren, dass man durch Vergrößern der Stichprobe die power beliebig erhöhen kann und damit auch jeden noch so geringfügigen, bedeutungslosen Zusammenhang oder Unterschied »erkennen« und signifikant machen kann. Zusammen folgt daraus, dass man mit wachsendem Datenmaterial in annähernd der Hälfte aller Fälle die Chance hat, die Nullhypothese zu verwerfen und somit eine beliebige »Theorie« oder Hypothese zu »bestätigen«. Damit wird Empirie als Kontrollinstrument praktisch wertlos.360

Der erfrischende Gebrauch der Anführungszeichen von Jörg Pflüger macht es deut-lich: Bei dieser Vorgehensweise wird nichts erkannt, sondern nur »erkannt«, es wird keine Theorie bestätigt, sondern eine »Theorie« »bestätigt«. In den Forschungs-anträgen werden die modalisierenden Satzzeichen freilich weggelassen, man will ja schließlich keine Förder-»Gelder«, sondern »Förder«-Gelder einwerben.

Das Korrelationsmaß »p value« ist inzwischen zum Fetisch geworden, was sein Erfinder so gar nicht gewollt hatte, wie Regina Nuzzo in der Nature unter dem Titel »Scientific method: Statistical errors« schrieb: »The irony is that when UK statistician Ronald Fisher introduced the P value in the 1920s, he did not mean it to be a definitive test. He intended it simply as an informal way to judge whether evidence was significant in the old-fashioned sense: worthy of a second look.«361

Dieser Signifikanz-Fetisch wäre ja nicht weiter schlimm, wenn er nicht fundamentale Bereiche des gesellschaftlichen Zusammenlebens oder Fragen der Wissenschaftspolitik betreffen würde. So werden gesellschaftliche Aussagen immer häufiger mit Darstellun-gen von Korrelationen untermauert, die komplexe Studien prägnant zusammenfassen (wenn nicht gar ersetzen) sollen. An der Hochschule für Politik der Technischen

Universität München gibt es sogar eine Professur »Political Data Science«.362 Was die Wissenschaftspolitik betreffe, so konstatiert Jörg Pflüger im oben zitier-ten Text abschließend, zeige sich, dass die bisherige Leitdifferenz der Wissenschaft,

360. JörgP f l ü g e r: Du sollst nicht falsch Zeugnis geben, in: Per Anhalter durch die Turing-Galaxis, hrsg. v.T ry s t e r o, Münster: Monsenstein und Vannerdat, 2012, S. 47–53, S. 52.

361. Regina N u z z o: Scientific method: Statistical errors, in: Nature International weekly journal of science, 12. Februar 2014, u r l:http://www.nature.com/news/scientific-method-statistic al-errors-1.14700.

362. Leider liest man momentan auf der entsprechenden Website nur den enigmatischen Hinweis:

»Unable to determine path to entry script«. Der Leser möge es zu einem späteren Zeitpunkt versuchen.

http://www.hfpm.de/index.php/82-contact/157-prof-dr-simon-hegelich.

156

KAPITEL 6. DER ÖFFENTLICHE VERNUNFTGEBRAUCH

»wahr/unwahr«, im traurigen, selbstreferentiellen Wissenschaftsbetrieb zur neuen Leitdifferenz »Drittmittel/mittellos« degeneriere. Klappern gehörte zugegebenerma-ßen schon immer zum Handwerk des prekären Forschers, jedoch hatte die öffentlichen Präsentation der eigenen Forschung noch andere Gründe, was im folgenden am Beispiel des öffentlichen Experimentes gezeigt werden soll.