• Keine Ergebnisse gefunden

2 Bisherige Modelle und Befunde zum Umgang mit dynamischen

2.1 Vorläuferstudien

Die Idee, Menschen nicht nur beim Bearbeiten von isolierten Teilaufgaben zu beob-achten, sondern die Komplexität ihrer Problemlösungen durch komplexe Problemstel-lungen – auch im Labor – zu stimulieren, hat meines Wissens TODA (1962) bereits erstmals und deutlich formuliert:

“In the real world ... man´s efficiency in coping with his environment depends not on how well he performs isolated tasks, but on how well he can co-ordinate several different functions in order to solve the problems of daily life. One way to study man as a problem-solver is to construct an artificial environment and examine the strategies used by human subjects in order to survive in this environment.” (p. 164).

TODA schlägt vor, experimentelle Ein-Personen-Spiele im Sinne von “microcosms”

zu schaffen, um mit diesem methodischen Zugang das menschliche Problemlösever-halten untersuchen zu können. Diesem Zugang haben sich seitdem eine Reihe von Forschern angeschlossen.

In einer wenig beachteten Arbeit hat KLEITER (1970) ein einfaches dynamisches System eingesetzt und seine Pbn in die Rolle eines Händlers versetzt, der ein Produkt lagert, welches verdirbt, wenn es nicht bis zum Ende der Lagerzeit verkauft wurde.

Die Formel, nach der die Eingabevariable “Lagermenge” (a) mit der Ausgabevariable

“Nachfrage” (z) und einer Zufallskomponente (e) verknüpft wurde, lautet:

zt+1 = 0.25 · (at - zt) + zt + e. (2.1) Mit jeder verkauften Einheit wächst der Gewinn, nicht verkaufte Einheiten mindern ihn. Der Startbestand liegt bei 500. Es soll Gewinn erzielt werden.

In einer “Optimismus”-Variante wuchs die Nachfrage gemäß obiger Formel, wenn mehr als im Vortakt gelagert wurde; in einer “Pessimismus”-Variante wuchs die Nachfrage bei gesunkener Lagermenge. Insgesamt 40 Pbn bearbeiteten diese Pro-blemstellung für 50 Takte, davon 23 unter der Optimismus-Bedingung.

Die Ergebnisse zeigen ein weitgehendes Versagen der Pbn unter der Pessimismus-Bedingung. Selbst unter der Optimismus-Bedingung gelang nur eine statische Kon-trolle, aber kein Anstieg. KLEITER erwartete, daß die Pbn zu Beginn eine Ent-deckungsphase durchlaufen, bevor sie dann in eine Optimierungsphase zur Verbesse-rung ihrer Strategien treten würden: “Only a few Ss reached this second phase.”

In einer späteren Übersichtsarbeit macht KLEITER (1974) auf Ansätze der dynami-schen Entscheidungstheorie aufmerksam, deren Hilfsmittel für die Erforschung von mehrstufigen Entscheidungsproblemen herangezogen werden sollten. Er zitiert Arbei-ten aus den frühen sechziger Jahren, in denen bereits dynamische Entscheidungssitua-tionen in psychologischen Experimenten realisiert wurden. Neben klassischen Lager-haltungsproblemen, für die es normative Modelle gibt, schildert KLEITER (1974, p.

107) auch ein Markoff'sches Entscheidungsproblem, das als “Taxibetrieb” eingeklei-det ist. Der Pb ist hierbei ein Taxichauffeur, der drei Städte A, B und C befährt. In jeder Stadt gibt es drei Standorte (Busstation, Bahnhof, Flughafen) mit festgelegten

(aber vom Pb zu entdeckenden) Übergangswahrscheinlichkeiten, die den Übergang zu einem der verbleibenden acht Standorte regeln. Ziel ist es, den Gewinn zu steigern, der für die verschiedenen Fahrtziele festgelegt ist. Wenngleich die untersuchten 18 Pbn mit je 180 Spielrunden Schwierigkeiten hatten, die Übergangsmatrix korrekt zu schätzen, konnte für 15 dieser 18 Pbn eine Strategie identifiziert werden, die den durchschnittlich erwarteten Gewinn nach Spielen vieler Runden maximiert. Drei andere hypothetische Strategien (kurzsichtige Maximierung des Momentan-Gewinns;

Minimax-Strategie; “minimax regret”) konnten entsprechend selten bzw. gar nicht beobachtet werden.

Die Idee einer systematischen Systemkonstruktion bzw. -variation, die der vorlie-genden Arbeit zugrundeliegt, ist ebenfalls nicht neu. BREWER (1975) beschreibt eine Monte-Carlo-Studie, in der er – ausgehend vom Multiplikator-Akzelerator-Modell nach SAMUELSON (1939) – die Komplexität des Modells sukzessive erhöht. Die bei-den dazu von ihm eingeschlagenen Wege, (1) Hinzufügung neuer Elemente (sowohl weitere Variablen als auch – bei konstant gehaltener Variablenzahl – weitere Parame-ter) und (2) Erhöhung “sektoraler Disaggregation” (Aufsplittung eines Bereichs in mehrere unabhängige Teilsysteme), bewertet er im übrigen dahingehend, daß dem Hinzufügen neuer Elemente die weitaus wichtigere Bedeutung zukommt. Daß BRE -WER hierunter eben nicht in erster Linie die Erhöhung der Variablenzahl versteht, macht folgendes Zitat deutlich:

“Perhaps the most dramatic increases in analytic size (dies entspricht der Kom-plexität, J.F.) come in the addition of connections between elements, and/or in al-tering their specified relationships.” (BREWER, 1975, p. 182).

Unter der Änderung einer Relation versteht er im übrigen Manipulationen am “degree of reciprocity”, also der Beziehung, die wir als wechselseitige Abhängigkeit bezeich-nen würden. Die Bedeutung der Variablen charakterisiert er meines Erachtens tref-fend dadurch, daß er bei steigender Variablenzahl die Möglichkeit wachsender Kom-plexität gegeben sieht, aber selbstverständlich keinen zwingenden Zusammenhang er-wartet (p. 193).

Unsicherheit in formalen Systemen lokalisiert BREWER (1975, p. 183) an zwei Stellen: (1) Unsicherheit, die in der Spezifikation des Modells als Fehler explizit ent-halten ist, und (2) Unsicherheit infolge von Meßfehlern. Während (1) den stochasti-schen Charakter des Simulationsmodells betrifft, handelt es sich bei (2) um Fehler, die unabhängig vom spezifizierten Modell bei der Feststellung von Variablen-Ausprä-gungen auftreten. BREWER (1975, p. 181) nennt verschiedene Eigenschaften komple-xer Systeme, die sehr an diejenigen erinnern, die in psychologischen Arbeiten über dieses Thema auftauchen, so z.B. “number of elements” (Anzahl beteiligter Varia-blen), “forms of relationships” (Art der Vernetzung), “degrees of interconnection”

(Vernetztheit), “rates of change” (Dynamik bzw. Eigendynamik) sowie “uncertainty”

(Unsicherheit bzw. Intransparenz). Daß Menschen mit komplexen Systemen nicht gut umgehen können, ist für ihn selbstverständlich:

“Man's limited intellectual apparatus ... prompts him to seek simple ordered regula-rity. His images are poor proxies for behavioral reality. His analyses frequently re-flect these defective images; unfortunately so too do his policies.” (p. 193).

Diese früh geäußerten Vorstellungen zur systematischen Systemkonstruktion von Brewer finden ihren aktuellen Niederschlag in Forderungen etwa von MACKINNON

und WEARING (1985) oder auch von HÜBNER (1989).

Ein weiterer Vorläufer ist METLAY (1975). Er wählt das Verfahren der Computer-simulation, um bestimmte Eigenschaften komplexer Systeme genauer untersuchen zu können. Folgende Prämissen legt er seiner Arbeit zugrunde: (1) ein System kann in Form eines simultanen Gleichungssystems beschrieben werden; (2) es liegt komplet-tes Wissen über Ursache-Wirkungs-Zusammenhänge in diesem System vor; (3) die beschriebenen Systemzusammenhänge bleiben über die Zeit hinweg stabil und es kommen keine weiteren Variablen hinzu; (4) die Abhängigkeiten lassen sich in li-nearer Form darstellen; (5) es gibt keine gleichzeitige Kausation, d.h. eine Ursache ist einer Wirkung immer zeitlich vorgeordnet, die Wirkung tritt nicht gleichzeitig ein.

Hiervon ausgehend konstruiert er für eine erste Untersuchung sechs verschiedene Varianten eines Systems mit zehn Variablen, die sich durch unterschiedliche Vernet-zungsgrade zwischen den Variablen auszeichnen. Ausgangspunkt dieser Variation ist die Überlegung, wie sich unterschiedliche Grade von Fehlspezifikationen – die Abweichungen betragen 1, 2, 4, 8 bzw. 16 Prozent der Konnektionen – eines (bekannten) Modells auswirken. Die erste der sechs Varianten bildet das Aus-gangsmodells, von dem die übrigen fünf Varianten nun zunehmend abweichen. Für alle sechs Varianten sind die Strukturgleichungen angegeben. Die Konnektivi-tätsmatrizen (Q-Matrizen; jede Zelle dieser quadratischen Matrizen erhält dort eine Eins, wo zwei Variablen in Zusammenhang miteinander stehen, ansonsten eine Null) dieser sechs Systeme werden nun dazu herangezogen, die zeitliche Entwicklung der Systeme zu vergleichen. Zu diesem Zweck werden die Q-Matrizen schrittweise potenziert, jede Potenzierung spiegelt die Auswirkungen der Abhängigkeiten zwischen den Systemvariablen wider z.B. durch die Anzahl der Nullzellen in den Matrizen. Sind zum Zeitpunkt t=0 noch viele Nullzellen vorhanden, verschwinden diese bei stark vernetzten Systemen schon nach wenigen Potenzierungen (bei drei der sechs Varianten sind nach vier Takten bereits alle Zelleinträge ungleich Null). Daraus wird deutlich, daß geringe Fehler sich erst über längere Zeitstrecken bemerkbar machen, stärkere dagegen bereits in allerkürzester Zeit.

In einer zweiten von METLAY (1975) berichteten Untersuchung konstruiert der Au-tor ein System mit 15 Variablen, das aus drei dekomponierbaren Teilen besteht (vgl.

die Ähnlichkeit zu den von KLUWE verwendeten Systemen SIM00X). Auch hiervon wurden wieder sechs Varianten – ein Ausgangsmodell und fünf FehlModelle – er-zeugt. Daran lassen sich die geschilderten Effekte erneut demonstrieren. Sein pessimi-stischer Schluß (bezogen auf die Komplexität sozialer Systeme):

“We could argue that in the face of having to act, our intuition may be our best guide. In such an instance our only guarantor may be faith, a belief, often contra-dicted by history, in our innate ability to choose correctly. We have to resort to 'faith', to the same kind of courageous fatalism which JAMES counseled: Be strong and of good courage. Act for the best, hope for the best, and take what comes ....”

(METLAY, 1975, p. 250).

Der JAMES'sche couragierte Fatalismus könnte geradezu die Leitlinie eines erfolg-reichen Bürgermeisters von LOHHAUSEN sein – oder ist dies nicht “Selbstsicher-heit”? Auch die von DÖRNER (1989b) geforderte Verwendung von Intuition und dem

“gesunden” Alltagsverstand ist hier bereits angelegt, allerdings mit deutlich anderer Bewertung ...

Zusammenfassend kann aus dieser Erinnerung an Vorläuferarbeiten festgehalten werden: Problemlöseforscher haben bereits in den 60er und 70er Jahren Komplexität ins psychologische Labor geholt, indem sie mit simulierten Szenarien arbeiteten.

Auch der Gedanke an systematische Vorgehensweisen bei der Konstruktion von Systemen ist damals schon diskutiert worden.