• Keine Ergebnisse gefunden

Die Entstehung der Moderne und die Destabilisierung der Natur

Belastungsgrenzen der Erde – Leitplanken für die Menschheit

1. Die Entstehung der Moderne und die Destabilisierung der Natur

Die Entwicklungsgeschichte der Menschheit ist geprägt durch stetig wachsende metaboli-sche Komplexität, technimetaboli-schen Fortschritt und ökonomimetaboli-sche Transformation. Auf diesem Weg schiebt die Zivilisation jedoch die natürliche Umwelt der Erde immer näher an und über ihre Belastungsgrenzen. Wie konnte es dazu kommen?

In den grob zwei Millionen Jahren vor der Neolithischen Revolution war die Welt von enor-men Klimaschwankungen geprägt. Seit der letzten Eiszeit herrscht jedoch eine erstaunlich sta-bile globale Mitteltemperatur vor, die letztlich die Basis für die Sesshaftigkeit der Menschheit bot. Bereits in dieser frühen Phase begann man mit der intensivierten Nutzung des verfügbaren Bodens, was eine Verringerung der zur Versorgung nötigen Pro-Kopf-Fläche zur Folge hatte.

Später schuf die Industrielle Revolution (Abb. 1) mit der Nutzung der Steinkohle nicht nur ein neues energetisches Fundament für die Gesellschaft, sondern setzte eine Kette von Fortschritten in Gang. Der Ursprung der Kohleförderung liegt in England, da dort der Roh-stoff Holz, bedingt durch den Schiffbau, zur Neige ging und ersetzt werden musste. Erste primitive Kohlegruben wurden eröffnet, die allerdings ständigen Wassereinbrüchen ausge-setzt waren. Um das austretende Wasser in den Schächten effizient zu beseitigen, wurden erstmals Dampfmaschinen eingesetzt. James watt gelang es in dieser Zeit, die Effizienz dieser Maschinen soweit zu steigern (auf 1 – 2 %), dass sie auch in anderen Industriebe-reichen zu gebrauchen waren. Die Koppelung mit einer Textilmaschine in Manchester im Jahre 1785 war somit die Geburt der modernen Welt (WBGU 2011).

Eine Folge der so in Gang gebrachten Entwicklung war der rasante Anstieg der Weltbevöl-kerung, die seit der Neolithischen Revolution von etwa einer Million Menschen auf meh-rere Milliarden in der heutigen Industriegesellschaft zunahm und im Jahre 2050 bei etwa neun Milliarden liegen wird (WBGU 2011).

Bereits im Zeitalter der Industriellen Revolution wurde die Versorgung der wachsen-den Weltbevölkerung von Moralphilosophen wie Thomas Robert MaltHus als Problem erkannt. Dieser prognostizierte eine schnell einsetzende Nahrungsmittelknappheit, unter-schätzte dabei allerdings die möglichen Produktivitätssteigerungsraten bei den verfüg-baren Ressourcen. In der Realität verliefen Bevölkerungs- und Nahrungsmittelkurve im Gleichschritt.

Der Zusammenhang zwischen Jahresenergiebedarf pro Kopf und der Fläche, die ge-braucht wird, um diesen Energiebedarf zu decken, zeichnet gewissermaßen eine „Lebensli-nie der Menschheit“ (Abb. 2). Es lässt sich zeigen, dass der Flächenbedarf in der Evolution der technischen Zivilisation drastisch reduziert werden konnte (WBGU 2011 nach sieFerle et al. 2006).

Eine Folge der „Abschaffung der Fläche“ zugunsten von Punktquellen für Energie (z. B. Öl-quellen) ist der Klimawandel. Bereits 1896 konnte Svante arrHenius – ganz ohne Super-computer – ein logarithmisches Gesetz für den Zusammenhang zwischen globaler Erwär-mung und CO2-Konzentration in der Atmosphäre herleiten. Moderne Messungen belegen, dass die mittlere Oberflächentemperatur der Erde in den letzten vier Jahrzehnten auf Grund der anthropogenen Treibhausgasemissionen bei einem näherungsweise linearen Trend um etwa 0,5 °C angestiegen ist. Wenn man bei der Entwicklung in Jahresschritten die

kurzfris-Abb. 2 Entwicklung der Energieflächenproduktivität Teil 1. Quelle: WBGU 2011, in Anlehnung an sieFerle et al. 2006

tige, natürliche Variabilität aufgrund von Faktoren wie Vulkanausbrüchen und El-Niño-Os-zillationen herausrechnet, dann wird auch die gelegentlich aufgestellte Behauptung, die glo-bale Erwärmung stehe seit 1998 still, schnell gegenstandslos (Foster und raHMstorF 2011).

Als Beispiele für die bereits sichtbaren Auswirkungen des Klimawandels seien genannt:

– Rückgang der Arktischen Meereisfläche.

Die minimale Ausdehnung des Meereises, die meist im September erreicht wird, lag im Jahr 2012 um 49 % unter dem Durchschnitt des Zeitraums 1979 – 2000. Dies bedeutet nach einigen Abschätzungen die geringste Ausdehnung seit mindestens 1500 Jahren (National Snow and Ice Data Center).

– Hitzewellen.

Die innerhalb der letzten zehn Jahre außergewöhnlich häufig aufgetretenen Hitzewel-len hatten große gesellschaftliche Folgen (raHMstorF und couMou 2011). Da sich diese Hitzewellen mit statistischen Verschiebungen nicht erklären lassen, müssen tiefer liegende Vorgänge in der Atmosphäre verantwortlich sein. Eine mögliche Erklärung liefert das Konzept der Wechselwirkung planetarischer Wellen, das von der Existenz stehender (stationary) und laufender (travelling) Wellen auf der Erde ausgeht. Wenn stehende Wellen (gekoppelt an Kontinentalränder oder Gebirgszüge) laufende Wellen durch Resonanz „einfangen“, können sich die beiden Gebilde gegenseitig verstärken.

Möglicherweise wird durch die globale Erwärmung die Neigung zu genau solchen Re-sonanzen erhöht (PetHoukov et al. 2013).

– Dürren.

MaltHus’ Thesen erscheinen vor dem Hintergrund des Klimawandels wieder aktuell, denn die Ernährung der stetig wachsenden Weltbevölkerung wird durch die Folgen des Klimawandels gefährdet. Metastudien zeigen (knox et al. 2012), dass die Erder-wärmung mit großer Wahrscheinlichkeit die landwirtschaftliche Produktion behindern wird, wie beispielsweise während der extremen Dürre im Jahr 2012 in den USA.

– Emissionsentwicklung.

Die Freisetzung von Treibhausgasen wie Kohlendioxid ist die Ursache für die globale Erwärmung; ihre Regulierung ist daher die Grundlage erfolgreicher Klimapolitik. Zwei Schlüsselszenarien, wie sich die CO2-Emissionen aus fossilen Ressourcen entwickeln könnten, lassen sich hierbei durchspielen: Im einen Fall gibt es weiterhin keine kon-zertierte Klimapolitik, im anderen verfolgt die Weltgemeinschaft eine entschlossene Klimaschutzstrategie.

Wie in Abb. 3 veranschaulicht, belaufen sich die Emissionen zum heutigen Zeitpunkt auf etwa 32 Milliarden Tonnen CO2 pro Jahr, während sie im Jahr 1800 noch fast null betrugen.

Im pessimistischsten Szenario (rote Linie) wird ein Konzentrationsverlauf angenom-men, bei dem die Emissionen auf über 100 Gt im Jahr 2100 anwachsen. Da selbst bis zum Jahr 2250 erst etwa 1 % des verfügbaren fossilen Brennstoffs extrahiert sein werden, liegt dieser fatal hohe Wert durchaus im Bereich des Möglichen. In diesem Szenario wird nach Berechnungen des Potsdam-Instituts für Klimafolgenforschung die Erdtemperatur im Mit-tel um 8 °C gegenüber dem durchschnittlichen Niveau während der Warmzeit, in der wir uns geologisch gesehen heute befinden, zunehmen. Ab dem Jahr 2200 werden in diesem Szenario die Emissionen im Übrigen stark abnehmen, weil angenommen wird, dass sich die Kosten der Förderung nicht mehr rechtfertigen lassen (MeinsHausen et al. 2011).

Im optimistischen Szenario (blaue Linie) sinken die Emissionen ab einem Scheitelpunkt etwa im Jahr 2020 bis zum Jahr 2070 auf null und anschließend sogar unter die Nulllinie.

Letzteres wären „negative Emissionen“, d. h., die Atmosphäre würde aktiv von CO2 „ge-reinigt“. Nur in diesem dramatischen Dekarbonisierungsszenario kann die 2 °C-Leitplanke respektiert werden, welcher sich 194 Nationen im Dezember 2010 beim Klimagipfel in Cancún verschrieben haben. Das optimistische Szenario ist damit kaum weniger extrem als das pessimistische Szenario, weil es nicht nur ein Emissionsreduktionsszenario dar-stellt, sondern ein Emissionsinversionsszenario – also eine Schubumkehr (MeinsHausen

et al. 2011).