• Keine Ergebnisse gefunden

Kausalität und Zufall: Prognosen

N/A
N/A
Protected

Academic year: 2022

Aktie "Kausalität und Zufall: Prognosen"

Copied!
15
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Fakultät Versorgungstechnik

Kausalität und Zufall: Prognosen

Einleitung ... 1

Das Paradox der Vorhersagbarkeit ... 2

Die Notwendigkeit von Kausalität und Zufall ... 2

Die anthropozentrische Sichtweise ... 3

Der Mechanismus des Zufalls ... 4

Die Erstellung von Prognosen ... 5

Grundstruktur einer Prognose ... 6

Kategorien von Modellen ... 7

Der stochastische Charakter von Prognosen ... 10

Die Gültigkeit und Aussagekraft von Prognosen ... 11

Rückkopplung der Prognosen ... 12

Prognosen und Entscheidungsfindung ... 13

Zusammenfassung ... 14

Literaturverzeichnis ... 15

Einleitung

Kausalität ist notwendig für die Entwicklung von Leben. Kausalität bedeutet, dass die Zukunft logisch aus der Vergangenheit folgt und somit erwartbar ist. Nur wenn sich die Umgebung kausal verhält, kann sich Leben entwickeln, das an diese Umgebung

angepasst ist und in ihr überleben kann. Was für das Leben gilt, gilt auch für unsere Kultur.

Unsere kulturelle Entwicklung ist nur möglich, weil wir in der Lage sind, unsere Umwelt als kausal zu begreifen und Wirkungen vorauszusehen.

Der Gegenspieler der kausalen Struktur ist der Zufall. Zufall bedeutet Unberechenbarkeit, bedeutet Risiko. Die Struktur können wir beherrschen und nutzbar machen, den Zufall nicht. Deshalb ist es nicht überraschend, dass wir danach streben, unsere Umwelt immer besser zu verstehen und immer zuverlässiger zu beherrschen. Wissenschaft und Religion, so unterschiedlich sie sind, gründen beide in der Sehnsucht nach einer geordneten Welt, nach der Überwindung des Zufalls. Den Zufall, das Unberechenbare, verbinden wir mit Negativen und hoffen darauf, dass entweder wir selbst (Wissenschaft) oder eine höhere Instanz (Religion) ihm nicht ausgeliefert sind.

Dabei ist der Zufall genauso unentbehrlich für unsere Existenz wie die Struktur. Ohne Zufall gäbe es keine Entwicklung und keinen freien Willen. Ohne Zufall stünde unser Schicksal von Anfang an fest, ohne die geringste Möglichkeit der Einflussnahme. Was uns wie ein Widerspruch erscheint – Struktur und Zufall – hat offenbar eine notwendige

Koexistenz in unserer Welt. Wenn wir zielgerichtet handeln wollen, müssen wir diese Dualität in unseren Planungen angemessen berücksichtigen.

(2)

Das Paradox der Vorhersagbarkeit

Kausalität und Zufall sind für unsere Existenz charakteristisch

Zufall ist zeitlich gerichtet, Kausalität nicht: Der Zufall ist der fundamentale Unterschied zwischen Vergangenheit und Zukunft

Freier Wille und die Voraussehbarkeit menschlichen Verhaltens (ergo: reine Kausalität) sind miteinander unvereinbar

Die Notwendigkeit von Kausalität und Zufall

Wir unterscheiden zwei logische Möglichkeiten für ein Ereignis in der Zukunft: kausal und zufällig. Ein Ereignis ist kausal, wenn es aus Ursachen in der Vergangenheit entsteht und aus diesen gesetzmäßig folgt. Kennen wir den Ausgangszustand und die Gesetzmäßig- keiten, dann können wir dieses Ereignis voraussehen. Die Genauigkeit unserer Prognose ist nur durch die Genauigkeit unserer Kenntnis der Gesetzmäßigkeiten und des Ausgangs- zustands begrenzt.

Alternativ kann ein Ereignis zufällig passieren, ohne (erkennbare) Ursache in der Vergan- genheit. Dann können wir bestenfalls die Wahrscheinlichkeit eines solchen Ereignisses prognostizieren (nämlich dann, wenn auch dieser Zufall gewissen Gesetzmäßigkeiten unterliegt), nicht aber dessen konkretes Erscheinen.

Offensichtlich ist unsere Welt kausal. Die Zukunft entsteht gesetzmäßig aus der

Vergangenheit; anderenfalls gäbe es keine Struktur, keine Möglichkeit der Entwicklung, nichts, worüber wir denken könnten. Die Naturwissenschaft untersucht diese Kausalitäten und beschreibt sie in Bewegungsgleichungen – mathematische Zusammenhänge für die zeitliche Entwicklung von Messgrößen, die ein System beschreiben. Mit den

Bewegungsgleichungen kann die Entwicklung der Zukunft quantitativ aus der Vergangenheit abgeleitet werden.

 Interessanterweise sind diese Bewegungsgleichungen stets lokal: Die unmittelbare Zukunft ergibt sich aus der unmittelbaren Vergangenheit, in unmittelbarer räumlicher Nachbarschaft. Es gibt keine Fernwirkung, weder zeitlich noch räumlich, keinen Gesamtplan, dem sich das Einzelne fügt. Die Bewegungsgleichungen lassen sich zwar zu Gesamtlösungen integrieren, aber dabei treten die später beschriebenen prinzipiellen Ungenauigkeiten auf. Somit ist zwar eine beliebig präzise lokale Beschreibung, aber stets nur eine begrenzt präzise globale Beschreibung möglich. Möglicherweise gibt es einen verborgenen Zusammenhang zwischen der Lokalität der Bewegungsgleichungen und der Rolle des Zufalls in unserer Welt.

Gleichzeitig gibt es den Zufall in unserer Welt. Auch er ist notwendig, denn er gibt der Zeit eine Richtung. Bewegungsgleichungen sind symmetrisch in der Zeit; sie lassen sich vorwärts wie rückwärts anwenden und zeichnen keine Zeitrichtung aus: Mit ihnen können wir sowohl die Zukunft aus der Vergangenheit bestimmen als auch die Vergangenheit aus der Zukunft. Anders der Zufall: die Vergangenheit ist vollständig bestimmt, die Zukunft ist es nicht. Mit dem Zufall untrennbar verbunden ist das Risiko, die niemals vollständige Prognostizierbarkeit der Zukunft. Erst der Zufall ermöglicht einen freien Willen, Kreativität und Gestaltung; gleichzeitig bedingt er Risiko und damit Verantwortung.

Unsere Existenz setzt also notwendig Kausalität und Zufall voraus. Die beiden Elemente sind nicht widersprüchlich, sondern komplementär. Erst ihr Zusammenspiel ermöglicht die Welt, wie wir sie erleben. Dies gilt für die biologischen Grundlagen unserer Existenz (1) genauso wie für unser Bewusstsein. Eine rein kausale Welt wäre starr, ohne jede Gestaltungsmöglichkeit, eine rein zufällige Welt ohne jede Struktur und völlig beliebig.

(3)

Die anthropozentrische Sichtweise

Die Metaphysik fragt nach der prinzipiellen Kausalität aller Vorgänge in der Welt, also danach, ob alle Vorgänge grundsätzlich nach festen Gesetzmäßigkeiten ablaufen oder einer primären Zufälligkeit unterliegen. Bis etwa 1900 hätten Philosophen und Natur- wissenschaftler eine alles umfassende Kausalität und damit eine deterministische

Entwicklung der Welt überwiegend bejaht. Mit der Quantenphysik ist diese Sicht gekippt:

Sie definiert die beobachtbare Welt in Wahrscheinlichkeiten, also mit einer Zufallskompo- nente. Ob dahinter eine für uns nicht beobachtbare Kausalität liegt, ist uns nicht

zugänglich.

Unter makroskopischen Bedingungen verschwindet diese Zufallskomponente allerdings weitgehend, was die Gültigkeit der klassischen, kausalitätsbasierten Physik erklärt. Es bedarf aufwändiger Messeinrichtungen, um die Zufallskomponente nachzuweisen. Sie macht sich allerdings indirekt auch in makroskopischen Größen bemerkbar, wenn selbstverstärkende Bedingungen die mikroskopische Zufallskomponente an die

makroskopische Oberfläche befördern, beispielsweise bei der Vererbung. Diesen Effekt beobachten wir auch außerhalb der Quantenmechanik, zum Beispiel in der

Thermodynamik: Während sich die mikroskopischen Komponenten völlig zufällig verhalten, verhalten sich die makroskopischen Parameter – als Mittelwert extrem vieler zufälliger Ereignisse – (fast) vollkommen deterministisch. Dieser Zusammenhang heißt in der Statistik das Gesetz der großen Zahl.

Für uns Menschen ist im Alltag entscheidend, ob wir eine Entwicklung oder ein Ereignis faktisch voraussehen können oder ob es sich uns wie zufällig darstellt – unabhängig davon, ob es im Grunde kausal oder zufällig ist. Denn auch wenn ein kausaler Zusammen- hang vorhanden ist, sind wir oft nicht in der Lage, diesen für eine Vorhersage zu nutzen, weil uns notwendige Informationen fehlen. Das kann sowohl die Bewegungsgleichungen als auch die Ausgangsbedingungen betreffen.

Eine wesentliche Ursache hierfür ist die Nichtlinearität von Bewegungsgleichungen, die zu chaotischem Verhalten der Systeme führen können. Das bedeutet: Sehr ähnliche

Ausgangssituationen entwickeln sich mit der Zeit auseinander und führen zu völlig unterschiedlichen Zielzuständen. Um die Entwicklung des Systems auch nur grob

vorauszubestimmen, müssen wir die Ausgangslage extrem genau kennen. Je weiter wir in die Zukunft schauen wollen, desto extremer wird dieser Effekt, bis praktisch keine

Vorhersage mehr möglich ist.

Es gibt also eine subtile Wechselwirkung zwischen Kausalität und Zufall: Aus der

Kausalität entsteht durch die Grenzen der Integrierbarkeit (chaotisches Verhalten) Zufall, und aus dem Zufall entsteht durch das Gesetz der großen Zahl Kausalität.

Des Weiteren kann es sein, dass uns die Bewegungsgleichung nicht oder nur

unzureichend bekannt ist, dass uns die Ausgangslage nicht oder nur teilweise zugänglich ist (wie z.B. die geologischen Bedingungen bei Erdbeben oder Vulkanausbrüchen), oder dass es uns an den Berechnungsmöglichkeiten mangelt, um eine adäquate

Vorausberechnung durchzuführen (wie z.B. bei turbulenten Strömungen). Diese Mängel lassen sich durch entsprechenden Aufwand für die Vorhersage verringern, aber nicht beseitigen. Zudem steigt der Aufwand oft wesentlich stärker als die damit erzielte Zunahme der Genauigkeit. Damit erhebt sich die ökonomische Frage, wie viel Aufwand gerechtfertigt ist und wo wir auf eine mögliche (aber aufwändige) Vorhersage verzichten.

Schließlich spielt überall dort, wo Menschen (oder allgemeiner: bewusst handelnde Individuen) agieren, der freie Wille eine Rolle. Freier Wille und kausale Vorhersagbarkeit schließen einander aus. Selbst wenn sich freier Wille an rationalen Überlegungen und

(4)

Emotionen orientiert: er beinhaltet per Definition mindestens einen Rest Unvorhersag- barkeit, eben Freiheit. Erkennen wir uns einen freien Willen zu, sind damit unsere

Entscheidungen – und alles, was daraus folgt – prinzipiell nicht vollständig vorhersagbar (siehe dazu auch (2), trotz esoterischer Darstellung).

Die philosophisch interessante Frage, ob die Welt im Prinzip deterministisch ist oder Zufall enthält, spielt für uns in der Praxis keine Rolle. Entscheidend ist, dass wir nicht in der Lage sind, die Zukunft vollständig und sicher vorauszusehen. Das mag auf tatsächlicher

Zufälligkeit beruhen oder auf unserer (prinzipiellen) Unfähigkeit, entsprechend komplexe Strukturen vollständig zu erfassen und/oder vorauszudenken. Wir können dieses

Phänomen „praktische Zufälligkeit“ von Ereignissen nennen.

 Beispiel radioaktiver Zerfall eines Atomkerns: Ob der Zerfall (Zeitpunkt und Richtung) eines radioaktiven Kerns im Prinzip zufällig ist oder bei ausreichender Kenntnis des inneren Zustands dieses Kerns berechnet werden könnte, wissen wir nicht. Wir wissen aber, dass es uns prinzipiell unmöglich ist, dieses ausreichende Wissen über den inneren Zustand des Kerns zu erlangen, unter anderem aufgrund der Heisenberg’schen Unschärferelation. Daher ist der Zerfall des Kerns für uns de facto zufällig.

 Beispiel Umsatzentwicklung eines Produkts: Auch wenn sich alle Beteiligten rational verhalten würden, wäre die Umsatzentwicklung eines bestimmten Produkts im Markt nicht exakt und sicher vorhersagbar. Die Komplexität der Zusammenhänge zwischen allen Beteiligten (Unternehmen, Wettbewerber, Marktteilnehmer) ist so groß, dass es de facto unmöglich ist, die Ist-Situation und die Abhängigkeiten präzise zu bestimmen und daraus die Entwicklung vorherzusagen.

Hinzu kommt, dass die vielen Beteiligten eben nicht rational handeln (können). Billigen wir ihnen einen freien Willen zu, ist es uns auch prinzipiell unmöglich, sichere Aussagen über die Entwicklung zu tätigen.

Der Mechanismus des Zufalls

Unsere Welt verhält sich im Wesentlichen kausal. Wir erkennen, dass sich unsere Welt nach Regeln verhält. Wie greift der Zufall in diese kausalen Zusammenhänge ein?

Auf der untersten, quantenmechanischen Ebene bestimmen die Bewegungsgleichungen tatsächlich nur Wahrscheinlichkeiten. Die Elementarteilchen verhalten sich nicht

deterministisch, sondern zufällig – jedoch nicht beliebig, sondern nach bestimmten Regeln. Jedes Ergebnis hat eine bestimmte Wahrscheinlichkeit, und die Gesetze der Quantenmechanik ermöglichen uns, diese Wahrscheinlichkeiten zu bestimmen – sofern wir die Anfangsbedingungen kennen.

 Beispiel radioaktiver Zerfall eines Atomkerns: Der Zerfall erfolgt mit einer bestimmten

Wahrscheinlichkeit je Zeiteinheit, aber der konkrete Zeitpunkt des Zerfalls und die Richtung, in der die Zerfallsprodukte auseinanderfliegen, sind nicht prognostizierbar. Können Kerne auf

unterschiedliche Weise zerfallen, dann hat jeder dieser Zerfälle seine eigene Wahrscheinlichkeit.

Makroskopische Systeme bestehen aus einer großen Anzahl identischer Elemente.

Obwohl sich jedes einzelne Element wie oben beschrieben zufällig verhält, verhält sich das Kollektiv höchst vorhersehbar. Das ergibt sich aus dem statistischen Gesetz der großen Zahl: Die relative Schwankungsbreite einer makroskopischen Größe verringert sich mit der Wurzel aus der Anzahl beteiligter, statistisch identischer Elemente. Systeme, die aus einer großen Zahl identischer Elemente bestehen, verhalten sich deshalb fast deterministisch.

 Die Wahrscheinlichkeit, dass ein Atom eines radioaktiven Isotops binnen einer Sekunde zerfällt, sei 1%. In einer makroskopischen Probe befinden sich aber z.B. 1020 solche Atome. Davon zerfallen in einer Sekunde 1018 Atome, mit einer Schwankungsbreite von lediglich 109 Atomen. Das heißt: In 65% aller Sekunden zerfallen zwischen 999.999.999x109 und 1.000.000.001x109 Atome – eine relative Ungenauigkeit von 10-9. Die größte relative Abweichung, die in einer Sekunde seit Entstehung des Universums (4x1017s) einmal vorgekommen sein sollte, ist 8,65x10-9.

(5)

Dieser Mechanismus macht aus Zufall praktisch Kausalität – aber nicht ganz. Seine Gegenspieler sind die nicht linearen Bewegungsgleichungen, denen praktisch alle makroskopischen Systeme unterliegen. Systeme mit nicht linearen Bewegungs-

gleichungen haben die Eigenschaft, dass sehr ähnliche Anfangsbedingungen sich mit der Zeit zu sehr unterschiedlichen Zuständen entwickeln können. Um den korrekten

Endzustand zu bestimmen, müssen wir also den Anfangszustand extrem genau kennen.

Diese notwendige Genauigkeit nimmt umso mehr zu, je weiter wir das System in die Zukunft extrapolieren. Die mögliche Genauigkeit ist aber begrenzt durch die

zufallsbedingte Unschärfe, denn das System ist eben nur fast deterministisch.

 Beispiel Wettervorhersage: Die Entwicklungen in unserer Atmosphäre werden physikalisch unter anderem durch die Navier-Stokes-Gleichungen für Strömungen beschrieben, die nicht linear sind.

Heutige Wettervorhersagen sind durch die verfügbare Rechenleistung begrenzt, die eine grobe Rasterung der Wetterdaten in Fläche, Höhe und Zeit erfordern und damit Ungenauigkeiten erzeugen. Doch selbst wenn wir diese Quelle von Ungenauigkeit durch eine (um viele Größenordnungen) gesteigerte Rechenleistung beseitigen könnten, bliebe stets der Einfluss zufälliger Ereignisse (Einfall von Höhenstrahlung, Zerfall radioaktiver Atome, Fluktuationen in chemischen Reaktionen), der aufgrund des chaotischen Verhaltens im Gesamtsystem die Prognostizierbarkeit begrenzt: Je weiter die Prognose in die Zukunft reicht, desto ungenauer wird sie.

Der Zufall macht sich in solchen physikalisch beschriebenen Systemen also dadurch bemerkbar, dass es zwar eine deterministisch wirkende Bewegungsgleichung gibt, diese aber nur im Grenzfall unendlich großer Systeme exakt gilt. In realen Systemen macht sich der Zufall durch eine Unschärfe bemerkbar, die mit zunehmender Zeit immer größer wird, bis sie die Prognose bis zur Unkenntlichkeit verschmiert.

Die obige Beschreibung zeigt, wie der Zufall prinzipiell in kausale Zusammenhänge

eindringt und diese beeinflusst – meist nicht abrupt, sondern in der Form von Unschärfen, also zunächst geringen Abweichungen vom Erwartungswert. Selbst unter

Idealbedingungen ist eine zufallsfreie Kausalität unmöglich.

Es ist sinnlos, die relativen Anteile von Kausalität und Zufall auf zukünftige Ereignisse bestimmen zu wollen, weil sie auf nicht vergleichbare Weise wirken. Die Kausalität wirkt kontinuierlich, der Zufall dagegen diskret. Zudem sind sie in beide Richtungen miteinander verwoben: Zufallsereignisse wirken kausal in die Zukunft; Kausalität verstärkt also zufällige Entwicklungen. Im Gegenzug verhält sich eine große Zahl gleichartiger Zufallsereignisse quasikausal (also mit großer Präzision vorhersagbar); Zufall erzeugt also auch Kausalität.

Von diesen Idealbedingungen sind wir aber in den meisten Alltagssituationen viele

Größenordnungen entfernt. Zum einen kennen wir die Anfangsbedingungen nur ungenau.

Zudem sind wir bei komplexeren Zusammenhängen nicht in der Lage, eine exakte

Bewegungsgleichung aufzustellen. Wenn überhaupt, stehen uns nur Näherungslösungen zur Verfügung, deren Ungenauigkeiten wir meist nicht einmal kennen. Das gilt für praktisch alle Problemstellungen außerhalb der exakten Naturwissenschaften: Für gesellschafts- wissenschaftliche Zusammenhänge gibt es zwar offensichtlich Kausalitäten, aber keine Möglichkeit, diese zu quantifizieren. Das scheitert bereits an der Beteiligung von

Menschen und der Unmöglichkeit, deren freien Willen zu berücksichtigen.

Die Erstellung von Prognosen

Die einzige Quelle für die Zukunft ist die Vergangenheit Prognosen sind immer ungenau

Nur ein Teil der Ungenauigkeit lässt sich quantifizieren

(6)

Aus dem vorigen Kapitel kann man ableiten, dass es möglich ist, Prognosen zu erstellen, weil die Welt Struktur aufweist. Es gilt aber auch, dass jede Prognose stets unvollkommen ist, weil sie den Zufall nicht vollständig abbilden kann. Um zu verstehen, wie sich diese zufallsbedingte Unvollkommenheit auf Prognosen auswirkt, müssen wir untersuchen, wie eine Prognose entsteht (3).

Grundstruktur einer Prognose

Die einzige Quelle für das, was in der Zukunft passieren könnte, ist die Vergangenheit. Nur auf die Daten der Ereignisse in der Vergangenheit haben wir Zugriff; sie sind unsere

Ausgangsbasis für alle Prognosen.

Im ersten Schritt versuchen wir, in den von uns beobachteten Abläufen und Ereignissen Strukturen zu erkennen. Damit ist gemeint, dass bestimmte Beobachtungen

vorzugsweise miteinander gemeinsam auftreten, aufeinander folgen, ihre jeweilige Stärke in einem Verhältnis zueinander steht, oder sich bestimmte Ereignisse gegenseitig

ausschließen. Es ist wichtig zu verstehen, dass das, was wir beobachten, stets nur

Korrelationen, also miteinander auftretende Erscheinungen sind, aber keine Kausalitäten, also Abhängigkeiten. Ob diese Korrelationen kausal begründet sind oder vielleicht nur zufällig auftreten, entzieht sich unserer Beobachtung.

 Wir beobachten zum Beispiel, dass es nur dann regnet, wenn der Himmel stark bewölkt ist, niemals aber bei klarem Himmel. Das ist zunächst nur die Feststellung, dass von den vier möglichen Kombinationen von „klar/bewölkt“ und „trocken/regnerisch“ eine, nämlich „klar und regnerisch“

niemals vorkommt. Das bedeutet noch nicht, dass Wolken Regen verursachen. Tatsächlich werden beide Erscheinungen (Wolken und Regen) von einer gemeinsamen Ursache, nämlich der

Übersättigung der Luft mit Wasser, verursacht.

Im zweiten Schritt erstellen wir uns ein Modell, welches die beobachteten Korrelationen in Form von Regeln zusammenfasst. Ein Modell beschreibt abhängig von der jeweiligen Ausgangssituation, wie sich diese Situation in die Zukunft entwickeln wird. Dabei gibt es für einen bestimmten Satz von Beobachtungsdaten stets eine unendliche Vielfalt

möglicher Modelle, die mit den beobachteten Daten kompatibel sind. Sie unterscheiden sich aber in den Aspekten, die nicht durch die beobachteten Daten abgedeckt sind. Die Auswahl zwischen diesen möglichen Modellen erfolgt nach ihrer Einfachheit (Occam’s razor): Das einfachste Modell, das mit den Beobachtungen kompatibel ist, wird favorisiert.

 Ein Beispiel hierfür ist das Newton’sche Gravitationsgesetz. Es besagt, dass die Kraft, mit der sich zwei Massen anziehen, proportional zu jeder dieser Massen und umgekehrt proportional zum Quadrat ihres Abstands ist: 𝐹𝐹 = 𝐺𝐺𝑚𝑚1𝑚𝑚2𝑟𝑟2. Es ist die einfachste Formulierung, mit der sich die Gravitation auf der Erde und in unserem Sonnensystem präzise beschreiben lässt. Ein alternatives Modell ist Einstein’s allgemeine Relativitätstheorie, die unter „normalen“ Verhältnissen zu den gleichen Ergebnissen führt, aber viel komplizierter ist. Erst unter extremen Bedingungen, wie gigantischen Massendichten oder extrem hohen Geschwindigkeiten, weichen die beiden Modelle voneinander ab.

Schon hieraus folgt, dass die Modelle für die Prognose von Ereignissen in einem bisher nicht beobachteten Bereich nur eingeschränkt brauchbar sein können. Weil die Zukunft per Definition zu dem durch Beobachtungsdaten nicht abdeckbaren Bereich gehört, haben Prognosen schon prinzipiell nur eine eingeschränkte Aussagekraft.

Ein Modell bildet niemals die ganze Wirklichkeit ab, sondern nur ausgewählte Parameter, die wir als wesentlich empfinden. Wir reduzieren die Wirklichkeit auf eine für uns

handhabbare Komplexität. Dabei gehen Aspekte der Wirklichkeit verloren, von denen wir annehmen (aber nicht wissen), dass sie für die uns interessierende Entwicklung nicht wesentlich sind. Diese Komplexitätsreduktion ist eine grundlegende Eigenschaft jedes Modells, auch unabhängig von den Einschränkungen der menschlichen Verarbeitung: Um die Wirklichkeit schneller voraussehen zu können, als sie geschieht, muss sie

zwangsläufig vereinfacht werden.

(7)

 Bei der Prognose von Niederschlägen berücksichtigen wir beispielsweise Parameter wie den Wassergehalt, die Temperatur und den Luftdruck, vernachlässigen aber andere Parameter wie den CO2-Gehalt oder die Mondphase, weil wir davon ausgehen, dass sie keinen (nennenswerten) Einfluss nehmen.

Sofern uns dafür die Möglichkeiten zur Verfügung stehen, sollten wir unser Modell überprüfen. Die Naturwissenschaften haben dafür das Experiment entwickelt. Möglichst unterschiedliche, durch das Modell beschreibbare Situationen werden kontrolliert erzeugt und daraufhin überprüft, ob die Ergebnisse durch das Modell korrekt beschrieben werden.

Dabei ist es insbesondere interessant, in Situationen einzudringen, die durch die

bisherigen Beobachtungen noch nicht abgedeckt sind, um die Grenzen der Gültigkeit von Modellen zu evaluieren. Unter solch extremen Bedingungen lassen sich alternative

Modelle gegeneinander prüfen, die im bisher beobachteten Bereich gleichwertig sind.

 Im Fall der Gravitation unterscheiden sich Newtons und Einsteins Gesetze um einen winzigen Betrag bei der Beschreibung der Planetenbahnen. Deren Überprüfung (Periheldrehung des Merkur) erbrachte den ersten starken Hinweis auf die Richtigkeit der allgemeinen Relativitätstheorie.

Extremere Situationen, in denen sich beide Modelle massiv unterscheiden (Schwarze Löcher, Gravitationslinsen, Gravitationswellen) konnten erst viel später beobachtet werden.

Wichtig ist, dass Modelle durch Experimente und Beobachtungen stets nur falsifiziert, also als unzutreffend erkannt werden können, niemals aber verifiziert werden können.

Auch wenn Modelle selbst in den extremsten überprüfbaren Situationen stets zutreffende Aussagen liefern, ist dies noch kein Beweis für ihre allgemeine Gültigkeit, lediglich ein starker Hinweis. Bei einem deterministischen Modell reicht ein einziges Gegenbeispiel aus, um die Gültigkeit des Modells zu verneinen. Und ein wahrscheinlichkeitsbasiertes Modell kann auch nur mit einer bestimmten Wahrscheinlichkeit (Konfidenz) bestätigt oder widerlegt werden, niemals aber vollständig.

Schließlich wenden wir unser Modell zur Prognose an, indem wir es mit der konkreten Ausgangssituation „füttern“. Das Modell liefert uns dabei Aussagen über die zukünftige Entwicklung der Situation.

Kategorien von Modellen

Im Idealfall ermöglicht uns die Beobachtung von Zusammenhängen, die Wechsel-

wirkungen in einem System im Detail zu verstehen und quantitativ zu beschreiben. Diese quantitative Beschreibung der Zusammenhänge bezeichnet man als

Bewegungsgleichung. Die Bewegungsgleichung beschreibt die Entwicklung des Systems meist in impliziter Form, oft als Differentialgleichung. Sie stellt einen

mathematischen Zusammenhang zwischen den Parametern des Systems her, beschreibt aber nicht direkt deren zeitliche Entwicklung. Um die gewünschte Prognose, die zeitliche Entwicklung einzelner Parameter zu erhalten, muss die Bewegungsgleichung

entsprechend umgeformt und integriert werden.

 Die Bewegungsgleichung für die Bewegung astronomischer Objekte setzt deren Beschleunigung in Zusammenhang mit der Gravitationskraft (Newton’sches Gesetz), die sich wiederum aus den Abständen und Massen der Objekte ergibt. Um die tatsächliche Bewegung der Körper daraus herzuleiten, muss die Gleichung (eine Differentialgleichung, weil sie Ort und Beschleunigung der Objekte miteinander verbindet) integriert werden.

Bewegungsgleichungen arbeiten zwar mit formal exakten Zusammenhängen, aber auch sie reduzieren die Situationen auf wenige, relevante Parameter. Anderenfalls würde die Komplexität sehr schnell zu extremen mathematischen Problemen bei der Lösung der Gleichungen führen.

 Im oben genannten Beispiel werden die astronomischen Objekte in der Regel als Punktmassen vereinfacht. Ihre räumliche Ausdehnung, ihre Rotation, ihre Verformbarkeit und alle weiteren ihrer

(8)

partikulären Eigenschaften werden vernachlässigt. In diesem Fall kann man abschätzen, dass diese Eigenschaften nur einen sehr geringen Einfluss auf die Gesamtbewegung der Körper nehmen.

 Bei der Beschreibung thermodynamischer Systeme oder chemischer Reaktionen könnte man im Prinzip Bewegungsgleichungen für jedes einzelne der beteiligten Atome aufstellen. Das entstehende System von Bewegungsgleichungen wäre aber jenseits aller rechnerischen Beherrschbarkeit.

Deshalb beschreibt man diese Systeme über kollektive Parameter, wie thermodynamische

Zustandsgleichungen (für Druck, Volumen, Temperatur usw.) und chemische Reaktionsgleichungen.

Hier garantiert das Gesetz der großen Zahl deren präzise Anwendbarkeit.

 Ein prominentes Beispiel für diese Art der Modellbildung ist die Wettervorhersage. Hier werden wesentliche Parameter unserer Atmosphäre (Temperatur, Druck, Wassergehalt usw.) durch thermodynamische Zustandsgleichungen und Strömungsgleichungen beschrieben. Die Integration erfolgt numerisch mit Hochleistungsrechnern. Je leistungsfähiger diese Rechner sind, desto kleinräumiger können die Parameter berechnet werden und desto zuverlässiger wird das Ergebnis.

Sind uns die inneren Zusammenhänge eines Systems nicht zugänglich (z.B. bei menschlichen Entscheidungen) oder sind die Zusammenhänge zu komplex, um zur

Prognose genutzt werden zu können (z.B. bei volkswirtschaftlichen Zusammenhängen mit einer Vielzahl unterschiedlich strukturierter Marktteilnehmer), bedienen wir uns der

Methode der Extrapolation. Sie beruht darauf, dass sich die meisten der uns

interessierenden Parameter nicht plötzlich und erratisch, sondern mehr oder minder stetig verändern und wir damit deren Verhalten aus der Vergangenheit in die Zukunft

extrapolieren können.

 Unsere Beobachtungen zeigen, dass sich die Bewölkung des Himmels nicht plötzlich, sondern immer nur allmählich ändert. Bei wolkenlosem Himmel können wir extrapolieren, dass sich in absehbarer Zeit (eine Stunde) keine dichte Bewölkung entwickeln wird und somit auch kein Regen zu erwarten ist.

Bei der Extrapolation suchen wir eine Funktion der Zeit (sowie möglicherweise weiterer Parameter, die wir für relevant halten), welche die in der Vergangenheit beobachteten Ereignisse möglichst präzise widerspiegelt. In der Regel verwenden wir dafür bestimmte Klassen von Funktionen mit noch offenen Parametern und passen diese Parameter dann so an, dass sie die Beobachtungsdaten möglichst gut wiedergeben (z.B. durch die

Methode der kleinsten Quadrate nach C. F. Gauß). Gemäß dem Sparsamkeitsprinzip (Occam’s razor) versuchen wir, die Beobachtungsdaten durch eine Funktion mit möglichst wenig Parametern so präzise wie möglich zu beschreiben. Anders als bei den

Bewegungsgleichungen liefert uns die Extrapolation einen direkten Wert für die uns interessierenden Parameter in der Zukunft.

Die am häufigsten verwendete Klasse von Funktionen sind die Potenzfunktionen (Taylor- Entwicklung) mit einem Parameter für jede Potenz der Zeit. Im einfachsten Fall (nullte Näherung, mit nur einem Parameter) schreiben wir den Wert aus der Vergangenheit (in der Regel den Mittelwert aller Beobachtungen) für die Zukunft unverändert fort.

 Dies geschieht z.B. bei den meisten Business-Planungen. Kostenwerte der Vergangenheit werden meist unverändert in die Zukunft transferiert, ggf. auch mit einem Proportionalitätsfaktor versehen.

Auch bei Vorhersagen für Meteoriteneinschläge oder Erdbeben werden die

Wahrscheinlichkeitsverteilungen aus der Vergangenheit (Häufigkeit der Ereignisse in Abhängigkeit von deren Größe) unverändert in die Zukunft fortgeschrieben.

Erwarten wir Änderungen in den Verhältnissen, können wir diese berücksichtigen, indem wir eine Trendanalyse in der Vergangenheit machen und diesen Trend für die Zukunft fortschreiben (erste Näherung, lineare Änderung mit der Zeit). Noch einen Schritt weiter kann auch die Änderung des Trends analysiert und fortgeschrieben werden (zweite Näherung).

 Das passiert bei Business-Planungen häufig mit wesentlichen Parametern wie der

Umsatzentwicklung. Auch andere Veränderungsprognosen (z.B. der Rückgang von Populationen in der Biologie) werden auf diese Weise gemacht.

(9)

Die Anzahl der einzubeziehenden Potenzen und damit Parameter ist frei wählbar. Je mehr Parameter wir einbeziehen, desto genauer können wir die Beobachtungsdaten

beschreiben, aber desto komplexer wird unsere Funktion auch. Im Idealfall ist sie so groß, dass die Beobachtungsdaten mit der resultierenden Funktion so genau beschrieben werden, wie sie auch gemessen sind. Zu viele Parameter führen zu einer

Scheingenauigkeit bei der Beschreibung der Beobachtungsdaten – und zu erratischem Verhalten in der Zukunft: Je höher die einbezogenen Potenzen sind, desto größer werden die Ausschläge in der ferneren Zukunft, ohne dass diese durch Beobachtungsdaten gedeckt sind.

Nicht für alle Beobachtungsdaten sind Potenzreihen die geeignetste Art der Beschreibung;

oft sind exponentielle, logarithmische oder zyklische Funktionen zu ihrer Beschreibung besser geeignet. Bei zyklischen Beobachtungsdaten liefert eine Fourieranalyse die

geeignete funktionale Beschreibung; die Anzahl der Parameter ergibt sich aus der Anzahl der berücksichtigten Oberwellen. Stets sollte diejenige Funktion gewählt werden, die mit der geringsten Anzahl an Parametern eine hinreichend genaue Beschreibung der Beobachtungsdaten (entsprechend deren Messungenauigkeiten) liefert.

 Bei der Vorhersage des Wetters bzw. der Temperatur (jenseits der über Bewegungsgleichungen möglichen Vorhersage über wenige Tage) wissen wir, dass die Annahme eines linearen Trends nicht zu sinnvollen Ergebnissen führt. Das wird auch nicht besser, wenn wir quadratische und weitere höhere Potenzen der Zeit hinzufügen. Stattdessen arbeiten wir mit Zyklen: Die Temperatur schwankt in einem Tageszyklus und in einem Jahreszyklus.

Für andere Systeme fehlt uns jeder Anhaltspunkt für eine formelmäßige Beschreibung einer konkreten Entwicklung. Wir haben aber statistische Daten aus der Vergangenheit, die uns Auskunft darüber geben, mit welcher Wahrscheinlichkeit bestimmte Zustände dieses Systems eintreten. Auf welchem Weg und wann konkret diese Zustände eintreten, bleibt dabei offen. Solche Modelle, die explizit Wahrscheinlichkeiten zum Ergebnis haben, nennen wir probabilistisch, im Gegensatz zu deterministischen Modellen, die

formelmäßig eine konkrete Entwicklung beschreiben.

 Ein Beispiel für ein typisch probabilistiches Modell ist das Gutenberg-Richter-Gesetz für die Häufigkeit von Erdbeben in Abhängigkeit von ihrer Stärke. Die Häufigkeit von Erdbeben (an einem bestimmten Standort) nimmt dabei nach einem Potenzgesetz ab. Solche Potenzgesetze für Wahrscheinlichkeiten von Ereignissen sind typisch für Systeme, die selbstorganisierte Kritikalität aufweisen, wie Erdbeben, Lawinen, Erdrutsche oder Waldbrände, aber auch Börsenkurse.

Im einfachsten Fall handelt es sich um eine rein statische Häufigkeit, gegebenenfalls abhängig von weiteren Parametern wie der Stärke des Ereignisses oder dem Ort seines Auftretens. Probabilistische Modelle können aber auch eine zeitliche Komponente

beinhalten, nach der die Wahrscheinlichkeit sich mit der Zeit verändert, etwa nach einem linearen oder exponentiellen Trend, oder auch zyklisch. Damit ergibt sich ein fließender Übergang zwischen probabilistischen und deterministischen Modellen, je nach Fokus auf die Wahrscheinlichkeiten bzw. auf die zeitlichen Veränderungen.

 Typische Beispiel für eine probabilistisches Modell mit exponentiellem Trend ist der radioaktive Zerfall (einer größeren Anzahl Atome eines Nuklids). Die Wahrscheinlichkeit für eine bestimmte Anzahl Zerfälle je Zeiteinheit (Aktivität) nimmt mit der Zeit exponentiell ab, weil ein immer größerer Anteil des Materials bereit zerfallen ist. Ein Gramm 238Uran (2,5x1021 Atome) hat eine mittlere Aktivität von 17.945 Zerfällen je Sekunde. Nach einer Milliarde Jahre wird diese Aktivität auf 14.346 Zerfälle je Sekunde gesunken ein.

 Ein Beispiel für ein probabilistisches Modell mit zyklischer Zeitabhängigkeit ist das Auftreten von Sonnenflecken. Der von ihnen eingenommene Anteil der Sonnenoberfläche schwankt in einem etwa 11-jährigen Zyklus zwischen 0 und 0,4%. Darüber hinaus zeigen sich bei der Sonnenfleckenaktivität längerfristige zyklische, aber nicht unbedingt regelmäßige Schwankungen.

(10)

Der stochastische Charakter von Prognosen

Jede Prognose beinhaltet Unsicherheiten. Je nach Art der Prognose machen sich diese auf unterschiedliche Art bemerkbar. Streng genommen ist jede Prognose eine

Wahrscheinlichkeitsaussage. Bei deterministischen Prognosen wird die Wahrscheinlichkeit jedoch eher als Zusatzinformation behandelt, während sie bei probabilistischen Prognosen zentral ist.

Deterministische Prognosen beschreiben den Verlauf bzw. den Zielwert bestimmter Ereignisse in der Zukunft. Die Unsicherheit der Prognose macht sich in einer

Fehlerbandbreite für die Zukunftswerte bemerkbar. Dabei wächst die relative

Fehlerbandbreite in der Regel an, je weiter die Prognose in die Zukunft reicht. Genau genommen handelt es sich um eine Wahrscheinlichkeitsaussage möglicher Ergebnisse mit dem Zielwert als Erwartungswert.

 Typisches Beispiel einer deterministischen Prognose ist die Wettervorhersage. Für Luftdruck, Temperatur und Niederschlag werden die zeitlichen Entwicklungen vorausberechnet und Erwartungswerte angegeben. Die Bandbreite für die Temperatur beträgt für den Folgetag in der Regel wenige Grad und nimmt mit zunehmender Zukunftsentfernung schnell zu.

Die exakte Wahrscheinlichkeitsverteilung um den Erwartungswert herum kann individuell sehr unterschiedlich aussehen. Bei kleinen Fehlerbandbreiten arbeitet man jedoch

meistens näherungsweise mit einer Normalverteilung; der angegebene Fehlerwert ist die Standardabweichung. Im Intervall Erwartungswert ± Fehlerwert (Ein-Sigma-Intervall) liegen dabei 65% der Wahrscheinlichkeit. Auf dieser Näherung basiert auch die

Fehlerfortpflanzungsrechnung, wenn das Ergebnis der Prognose zur Berechnung weiterer Zielwerte verwendet wird.

 Viele Extrembeispiele für deterministische Prognosen finden sich in der Astronomie. Dort sind viele Prognosen (z.B. für die nächste Sonnenfinsternis) extrem genau. Der Fehler für die Prognose der totalen Sonnenfinsternis am 03.09.2081 liegt unter einer Sekunde, bei einer Prognosedistanz von über 60 Jahren. Das entspricht einer relativen Unicherheit von < 5x10-10. Die Hauptquelle der Ungenauigkeit ist hierbei die Messungenauigkeit der Ausgangswerte. Der prinzipielle Fehler aufgrund von zufälligen Fluktuationen ist noch um viele Größenordnungen kleiner. Das liegt an der gigantischen Zahl statistisch beteiligter Partikel (der Mond als kleinstes beteiligtes Objekt hat 2x1048 Atome) und den weitgehend linearen Bewegungsgleichungen (die Raumkrümmung spielt eine vernachlässigbar geringe Rolle).

Genau wie bei Messwerten gilt, dass die Angabe einer Prognose ohne die Angabe ihres Fehlers (also der Bandbreite erwarteter Lösungen bzw. deren Wahrscheinlichkeits- verteilung) unvollständig ist.

Probabilistische Prognosen geben die Wahrscheinlichkeit an, mit der bestimmte

Zielzustände erwartet werden. Anders als bei den deterministischen Prognosen steht hier die Angabe der Wahrscheinlichkeit bzw. der Wahrscheinlichkeitsverteilung im Vordergrund.

Probabilistische Prognosen können sich sowohl auf Einzelereignisse wie auf Klassen von Ereignissen, abhängig von einem oder mehreren Parametern, beziehen. Der Übergang zu deterministischen Prognosen ist fließend, eine scharfe Abgrenzung ist nicht möglich.

 Die Vorhersage von Erdbeben (Wahrscheinlichkeit abhängig von Ort und Stärke),

Vulkanausbrüchen, Meteoriteneinschlägen und ähnlichen Naturkatastrophen sind typisch

probabilistisch. Angegeben wird die Wahrscheinlichkeit je Zeiteinheit; eine deterministische Angabe zum konkreten Zeitpunkt eines solchen Ereignisses ist in der Regel nicht möglich.

Einen Spezialfall probabilistischer Prognosen stellt die Voraussage extremer Ereignisse dar, für die es keine oder nur sehr wenige Beobachtungspunkte aus der Vergangenheit gibt. Aus der Tatsache, dass sie in der Vergangenheit nicht beobachtet wurden, können wir lediglich eine Obergrenze für ihre Häufigkeit ableiten. Diese Obergrenze ergibt sich aus

(11)

der Beobachtungszeit in der Vergangenheit und ist unabhängig davon, wie extrem diese Ereignisse ausgeprägt sind (siehe hierzu auch (4)).

 Ein wichtiges Prognoseziel ist die Voraussage extremer Marktereignisse. Wenn in 100 Jahren Beobachtungszeit der Markt sich niemals um mehr als 5% an einem Tag verändert hat, ist die Obergrenze der Wahrscheinlichkeit einer Veränderung um 10%, 20% oder 50% an einem Tag einmal in hundert Jahren. Es ist zwar logisch, dass eine Veränderung um 20% weniger

wahrscheinlich ist als eine Veränderung um 10%; eine Quantifizierung dieser Aussage ist aber nicht möglich (jedenfalls nicht auf Basis der statistischen Beobachtungen in der Vergangenheit).

Beim Versuch, eine Wahrscheinlichkeit für extreme Ereignisse aus der Wahrscheinlich- keitsverteilung für weniger extreme Ereignisse abzuleiten, muss sehr sorgfältig auf die Fehlerbandbreite geachtet werden. Aus statistischen Gründen nimmt die relative

Fehlerbandbreite zu, je seltener die Ereignisse beobachtet wurden, und erreicht bei nur einmal beobachteten Ereignissen den Wert Eins. Damit ist es unmöglich, für Ereignisse, die noch nicht beobachtet wurden, einen Erwartungswert anzugeben – außer, dieser kann kausal aus anderen, häufiger beobachteten Parametern abgeleitet werden.

 Insbesondere ist die Annahme einer Normalverteilung bei vielen relevanten Extremwertproblemen nicht zulässig. Die Wahrscheinlichkeitsverteilung von Erdbeben, Meteoriteneinschlägen und auch extremen Marktereignissen abhängig von ihrer Stärke deutet eher auf eine Potenzverteilung hin.

Damit ist auch das Rechnen mit Standardabweichungen (z.B. bei Fehlerfortpflanzung) unzulässig, denn bei Potenzverteilungen ist die Standardabweichung nicht endlich.

Die Gültigkeit und Aussagekraft von Prognosen

Die Quelle jeder Prognose ist die Beobachtung der Vergangenheit. Damit steht die Validität jeder Prognose unter der Voraussetzung, dass die Zukunft den gleichen Gesetzmäßigkeiten folgt wie die Vergangenheit. Dafür gibt es jedoch keine Garantie – niemals. Grundsätzlich können Zusammenhänge stets nur falsifiziert werden, niemals aber verifiziert. Bei statistischen Zusammenhängen, also solchen, die lediglich

Wahrscheinlichkeitsaussagen über zukünftige Ereignisse machen, ist streng genommen auch eine Falsifikation nicht möglich, weil es ja stets eine (wenn auch geringe)

Wahrscheinlichkeit gibt, dass die Ereignisse anders erfolgen als vorhergesagt. Damit folgt lediglich eine (hohe) Wahrscheinlichkeit, dass die Gesetzmäßigkeit nicht zutrifft.

 Die überwältigende Anzahl an Beobachtungen, die alle darin übereinstimmen, da es bei klarem Himmel nicht regnet, und das Fehlen einer einzigen Gegenbeobachtung, lassen die entsprechende Prognose als ausgesprochen zuverlässig erscheinen. Aber ein endgültiger Beleg für deren

Richtigkeit sind sie nicht.

Basiert die Prognose auf der Anwendung von Bewegungsgleichungen, deren Gültigkeit (in dem für die Prognose relevanten Bereich) experimentell überprüft ist, dann ist die

Gewissheit ihrer Gültigkeit sehr hoch (aber niemals vollkommen sicher). Es widerspricht unserer gesamten Lebenserfahrung, dass sich Naturgesetze plötzlich verändern oder ihre Gültigkeit verlieren, jedenfalls nicht in den Wertebereichen, in denen wir sie experimentell überprüft haben. Bei ihrer Extrapolation in (noch nicht überprüfte) Extrembereiche können dagegen durchaus neue Effekte auftreten, aus denen sich manchmal komplett neue Wissensgebiete entwickeln (wie z.B. Relativitätstheorie und Quantenmechanik).

Bei Prognosen, die auf statistischen Beobachtungen der Vergangenheit beruhen und deren mathematischer Beschreibung kein kausaler Zusammenhang zugrunde liegt, besteht dagegen durchaus die Möglichkeit, dass diese Beschreibung nur zufällig auf die Vergangenheitsdaten passt und für die Zukunft keine Aussagekraft besitzt. Diese Gefahr ist umso größer, je weniger Beobachtungsdaten aus der Vergangenheit zur Verfügung stehen.

 In der zweiten Hälfte des 20. Jahrhunderts waren die Zahl der Störche und die Zahl der Geburten gleichermaßen rückläufig. Indirekt beruhten vermutlich beide Effekte auf der Wohlstandsentwicklung

(12)

der Bevölkerung, aber auf sehr unterschiedliche Weise. Daraus zu schließen, dass auch in Zukunft die Zahl der Störche und die Zahl der Geburten korrelieren, ist vermutlich irreführend. Noch irriger wäre es vermutlich, die Geburtenzahl durch Ansiedlung von Störchen steigern zu wollen.

 Genau diese Art von Irrtum passiert aber häufig in der Wirtschaft: Es gibt eine deutliche Korrelation zwischen Profitabilität und Wachstum von Unternehmen. Wahrscheinlich ist eine gemeinsame kausale Ursache in der Art, dass das Unternehmen Werte schafft, die von den Kunden geschätzt und deshalb nachgefragt werden. Der Nachfrageüberschuss stimuliert gleichermaßen Profitabilität und Wachstum. Das bedeutet aber nicht, dass man durch Wachstum die Profitabilität steigert – ein Gedanke, der hinter den meisten Wachstumsstrategien von Unternehmen steht.

Diesem Problem kann man versuchen, durch Backtracking zu begegnen. Dabei wird nur ein Teil der Vergangenheitsdaten dazu benutzt, den für die Prognose erforderlichen

funktionalen Zusammenhang abzuleiten. Dieser ermittelte Zusammenhang wird dann an den übrigen Vergangenheitsdaten getestet. Das Verfahren hat aber Nachteile: Es stehen weniger Beobachtungsdaten für die Erstellung der Prognose zur Verfügung – was

besonders unangenehm ist, wenn ohnehin nur wenige Daten verfügbar sind. Das

Backtracking schließt viele Modelle aus, allerdings nicht alle, und insbesondere dasjenige nicht, welches sich ergeben würde, wenn man von vornherein alle Daten in die Erstellung des Modells einbezieht.

 Das Capital Asset Pricing Model (CAPM) nutzt die Korrelation zwischen dem Kursverlauf eines Titels mit dem Kursverlauf des Gesamtmarktes (bzw. eines entsprechenden Index) als Maß für das Risiko dieses Titels und damit als Bestimmungsgröße für dessen Kurs. Voraussetzung dafür ist aber, dass diese Korrelation dauerhaft ist und nicht z.B. rein zufällig. Trägt man diese Korrelationen aus unterschiedlichen Zeiträumen gegeneinander auf, wird deutlich, dass sie größtenteils zufällig sind und keine zeitliche Stabilität aufweisen.

Ein weiteres Problem ergibt sich, wenn extreme Ereignisse in die zu prognostizierenden Größen einbezogen werden müssen (4). Wird beispielsweise der mittlere Schaden einer Naturkatastrophe oder der mittlere Gewinn eines Marktwertes prognostiziert, dann haben extreme Ereignisse trotz ihrer Seltenheit einen nicht vernachlässigbaren Einfluss auf den Zielwert. Generell gilt, dass extreme Ereignisse, deren Wahrscheinlichkeit exponentiell mit ihrer Größe abfällt, im Erwartungswert für die mittlere Größe vernachlässigt werden

dürfen, nicht jedoch, wenn ihre Wahrscheinlichkeit mit einem Potenzgesetz abfällt. Ob das eine oder das andere vorliegt, ist für die extremen Ereignisse aber gerade nicht bekannt.

 Es gibt Hinweise darauf, dass die Wahrscheinlichkeitsverteilung für Marktschwankungen eher einem Potenzgesetz als einem Exponentialgesetz folgt. Das bedeutet, extreme Marktschwankungen sind wesentlich häufiger als nach einem Exponentialgesetz (Normalverteilung) zu erwarten.

Risikoberechnungen, die solche Ereignisse normalverteilt bewerten (wie allgemein üblich), fallen daher wesentlich zu gering aus.

Die aus der eingeschränkten Gültigkeit von Modellen resultierende Unsicherheit von Prognosen ist grundsätzlich nicht quantifizierbar. Alle Informationen, die zu einer

Quantifizierung der Prognose beitragen, sind per Definition bereits bei der Erstellung des Modells eingeflossen. Die aus dem Modell resultierende Unsicherheit der Prognose ist deshalb eine Untergrenze. Die Angabe eines Erwartungswerts oder gar einer Obergrenze für die Unsicherheit einer Prognose unter Berücksichtigung einer möglicherweise

eingeschränkten Gültigkeit des Modells ist prinzipiell nicht möglich.

Rückkopplung der Prognosen

Prognosen können sich selbst beeinflussen

Die Selbstbeeinflussung kann Prognosen unmöglich machen

Die bisherigen Überlegungen gingen von der Annahme aus, dass die Prognose (also der Akt der Vorhersage und ihre Nutzung) keine Auswirkungen hat auf die zukünftigen

Ereignisse, die sie beschreibt. Bei astronomischen oder geologischen Ereignissen trifft das

(13)

sicher zu. Bei gesellschaftlichen Ereignissen aber kann es sein, dass die Prognose das Verhalten von Personen beeinflusst, die an der prognostizierten Entwicklung mitwirken.

Die Prognose wird Teil eines Rückkopplungsmechanismus und nimmt damit selbst auf das prognostizierte Ergebnis Einfluss.

Bei einer positiven Rückkopplung, wenn also die Prognose das prognostizierte Verhalten verstärkt, kann es zu einer self-fulfilling prophecy kommen: Aus einer ursprünglich

indifferenten Situation kann allein die Prognose bewirken, dass das prognostizierte

Ereignis tatsächlich eintritt. Bei einer negativen Rückkopplung hat die Prognose dagegen ausgleichende Wirkung; sie dämpft die prognostizierte Entwicklung. Die Rückkopplung muss nicht linear positiv oder negativ sein; sie kann sich auch nichtlinear verhalten und zudem zeitlich verzögert sein. Bei einer negativen, verzögerten Rückkopplung kann es zu einem Aufschwingen des Systems in einander abwechselnde, gegensätzliche Zustände kommen.

 Wahlprognosen sind bekannt dafür, dass sie das Wählerverhalten beeinflussen. Deshalb ist ihre Veröffentlichung in der Regel kurz vor und während einer Wahl verboten. Die Rückkopplung ist in der Regel positiv, weil Menschen die Tendenz haben, sich der Mehrheit anzuschließen.

 Ein weiteres Beispiel für positive Rückkopplung sind spekulative Marktprognosen. Wird für eine bestimmte Aktie eine Kurssteigerung prognostiziert, kann das (aufgrund der erhofften Gewinne) zu vermehrten Käufen und damit zu einem tatsächlichen Anstieg des Kurses führen.

 Ein Beispiel für die (beabsichtigte) negative Rückkopplung von Prognosen ist die Abschreckungs- wirkung von Strafen. Die Erwartung, mit möglichst hoher Wahrscheinlichkeit bestraft zu werden, soll dazu führen, die Straftat zu vermeiden.

 Ein weiteres Beispiel für beabsichtigte negative Rückkopplung sind Prognosen zur

Umweltentwicklung. Einsicht in die Folgen von nicht nachhaltigem Handeln soll zu verstärkt nachhaltigem Handeln führen.

Weil die Rückkopplung stets über Menschen und deren Handlungen erfolgt, ist die Stärke der Rückkopplung nur sehr eingeschränkt prognostizierbar. Entsprechend eingeschränkt ist die Möglichkeit, die Rückkopplung in die Prognose einzubeziehen und die Prognose damit so zu adjustieren, dass sie (einschließlich ihrer Rückkopplung) stimmt.

Eine subtilere Variante der Rückkopplung besteht in spekulativen Märkten: Verhält sich ein Marktteilnehmer berechenbar, kann dies von den anderen Marktteilnehmern zu ihrem Vorteil und zum Nachteil des berechenbaren Teilnehmers ausgenutzt werden. Gleiches gilt in noch extremerer Form bei militärischen Auseinandersetzungen. Die Teilnehmer werden sich deshalb bewusst so verhalten, dass ihr Verhalten nicht prognostizierbar (und damit nicht ausnutzbar) ist. Hier führt bereits die Möglichkeit einer Prognose zu einer Verhaltens- änderung, die Prognosen unmöglich macht oder zumindest in ihrer Zuverlässigkeit

einschränkt. Dies ist ein spezieller Aspekt der Lucas-Kritik am deterministischen Verhalten von Märkten (5).

 Eine ähnliche Situation liegt in Spielen wie Poker oder Schach vor, in denen die Einschätzung des gegnerischen Verhaltens erheblichen Einfluss auf das Spielgeschehen hat. Spieler verhalten sich daher manchmal bewusst erratisch, um den Gegner zu verwirren. Diese erratische Komponente ist ein Grund dafür, dass menschliche Spieler nach wie vor Chancen gegen Rechner haben.

Prognosen und Entscheidungsfindung

Der Wert einer Prognose besteht darin, dass sie uns Orientierung gibt. Orientierung benötigen wir für Entscheidungen – die Auswahl einer von mehreren Alternativen unter Unsicherheit. Prognosen haben die Aufgabe, diese Unsicherheit zu verringern; vermeiden lässt sie sich aus den bereits diskutierten Gründen nicht.

Entscheidungen führen zu einer Veränderung der Situation; zumindest bei allen bis auf eine der zu bewertenden Alternativen. Um die Alternativen zu bewerten, müssen daher

(14)

Prognosen für die durch die Entscheidung veränderte Situation aufgestellt werden. Das ist umso schwieriger, je stärker die Entscheidung in die Rahmenbedingungen für die

Prognose eingreift. Denn für die veränderte Situation existieren definitionsgemäß keine validen Beobachtungsdaten aus der Vergangenheit – die einzige Quelle für Prognosen.

Es gibt Prognosen, da spielt die Veränderung durch die Entscheidung eine

vernachlässigbar geringe Rolle. Dies gilt z.B. für Prognosen für Naturkatastrophen, weil die Entscheidung, in ein bestimmtes Gebiet zu reisen oder nicht, sich in Sicherheit zu bringen, sein Haus erdbebensicher zu bauen, oder das Dach für eine hohe Schneelast auszulegen, auf die Wahrscheinlichkeit des Eintretens keine nennenswerte Auswirkung hat. Auch Marktprognosen werden nicht nennenswert durch die Investitionsentscheidun- gen einzelner Kleinanleger beeinflusst – wohl aber, wenn viele Kleinanleger oder große Investoren die Prognose nutzen.

Gerade im betriebswirtschaftlichen Bereich gibt es aber viele Entscheidungen, welche die Bedingungen für die Prognose massiv verändern. Hierzu gehören alle Investitions- und Veränderungsentscheidungen betrieblicher Art, die potentiell eine neue Situation schaffen.

Anders als für die unveränderte Situation, die zumindest trendmäßig prognostiziert werden kann, gibt es für Prognosen der veränderten Situation eigentlich keine Grundlage.

Bestenfalls können vage Abschätzungen für die wesentlichen Parameter (Umsatz, Kosten, Nachfrage usw.) getroffen werden; eine halbwegs zuverlässige Quantifizierung ist aber nicht möglich. Insofern sind alle Business-Pläne „geraten“ – umso mehr, je radikaler die Veränderung ist, die ihnen zugrunde liegt, und vollständig bei innovativen Neugründungen.

Ein wesentlicher Fehler, der gerade bei Business-Planungen häufig gemacht wird und der zu einem unberechtigten Vertrauen in deren Aussagen führt, ist, dass die Welt außerhalb der beabsichtigten Veränderung als invariant angesehen wird, die Veränderung also isoliert und nicht systemisch betrachtet wird. Märkte sind aber hochgradig vernetzt, und Wettbewerber reagieren (unvorhersehbar) auf Veränderungen. Meist sind diese

systemischen Rückkopplungen negativ, das heißt, sie wirken der verursachten

Veränderung entgegen und versuchen, den alten Gleichgewichtszustand des Systems wiederherzustellen. Das führt dazu, dass Business-Pläne für Veränderungen fast immer zu optimistisch sind: Der „real case“ ist eigentlich ein best case, und der „worst case“ der eigentliche real case.

Zusammenfassung

Prognosen sind ein zentraler, unverzichtbarer Baustein unseres Handelns. Wir machen uns aber meist nicht klar, wie sie zustande kommen, welche Annahmen ihnen zugrunde liegen und welche Zuverlässigkeit ihre Aussagen haben.

Jede Prognose beruht ausnahmslos auf Beobachtungen der Vergangenheit und auf Zusammenhängen, die wir in diesen Beobachtungen zu erkennen glauben. Dabei liegt jeder Prognose die Annahme zugrunde, dass die Zusammenhänge der Vergangenheit auch in der Zukunft Gültigkeit haben.

Prognosen liefern bestenfalls Wahrscheinlichkeitsaussagen für zukünftige Ereignisse. Das ergibt sich zwangsläufig aus der Omnipräsenz des Zufalls in unserer Welt. Eine

Überprüfung von Prognosen ist nur bei wiederkehrenden Ereignissen möglich, und auch dort nur mit Wahrscheinlichkeitsaussagen, niemals mit Sicherheit. Prognosen über einmalige Ereignisse lassen sich grundsätzlich nicht überprüfen.

(15)

Literaturverzeichnis

1. Monod, Jacques. Zufall und Notwendigkeit. Paris : Editions du Seuil, 1970. ISBN 3- 492-01913-7.

2. Bennett, John G. Risiko und Freiheit. Zürich : Chalice Verlag, 2004. ISBN 3-905272- 70-9.

3. Silver, Nate. The Signal and the Noise. s.l. : Penguin Random House, 2012. ISBN 978- 0-141-97565-8.

4. Taleb, Nassim Nicholas. The Black Swan. New York, NY : Random House, 2010.

ISBN 978-0-8129-7381-5.

5. Robert E. Lucas, Jr. Econometric Policy Evaluation: A Critique. Carnegie-Rochester Conference Series on Public Policy. 1976, Bd. 1.

03.01.2021

Referenzen

ÄHNLICHE DOKUMENTE

Vorteile hat das System nicht nur für die Ärzte, wie Sie meinen, sondern vor allem auch für die Patienten: Der Arzt, der von 8 Uhr bis zum nächsten Tag 17 Uhr durchgehend

Die Wä- denswiler züchteten neue Sorten bei Reben, Obst, Bee- ren, Gemüse und Zierpflanzen; Wädenswiler Pioniere legten mit ihren Arbeiten die Basis für die Integrierte Pro-

Nicht zufällig spricht die Bera- tungsstelle für Unfallverhütung in der Landwirtschaft BUL daher provokativ davon, dass Unfälle vorbe- reitet, organisiert und realisiert werden

Bei akuter Mangelernährung sind präventiv pro- teinverstärkte Supplemente sowie Vitaminpräparate geeignet, doch ist auf Dauer nur eine ausgewogene, vielseitige und

Auf gesundem Traubengut ist diese Hefeart zu fünfzig Prozent vertreten, wenn wir aber viel faules Traubengut im Rebberg haben, kann dieser Anteil bis auf neunzig Prozent ansteigen..

sind: Durch Kunst Fortunas Fehler wieder gut zu machen – ut arte emendaturus fortuna (Horaz, [14]). Darf man daraus nicht schliessen, dass man andere, bessere Ergebnisse

Eine Auffrischung ist nach circa einem Jahr mit Booster-StroVac®, weitere Booster sind später bei Bedarf möglich. In einer aktuellen Analyse von anonymisier- ten GKV-Daten

Jede Aussage vor der Staatsanwaltschaft, die euch oder andere vor Gericht gegebenenfalls “entlasten” könnte, wird die Staatsanwaltschaft nur dazu ver- anlassen, nach