Die gegenwärtige globale Erwärmung oder Erderwärmung (umgangssprachlich auch „der“ Klimawandel) ist der Anstieg der Durchschnittstemperatur der erdnahen Atmosphäre und der Meere seit Beginn der Industrialisierung. Es handelt sich um einen anthropogenen (= menschengemachten) Klimawandel, da er hauptsächlich auf Industrie-, Forst- und Landwirtschaftsaktivitäten zurückzuführen ist, die Treibhausgase emittieren.
Im Gegensatz zum Wetter, das kurzfristig-aktuelle Zustände der Atmosphäre beschreibt, werden hinsichtlich des Klimas Mittelwerte über lange Zeiträume erhoben. Üblicherweise werden dabei Normalperioden von jeweils 30 Jahren betrachtet. Der Temperaturanstieg seit der vorindustriellen Zeit bis zum Jahr 2017 betrug nach Angaben des Weltklimarates (IPCC) etwa 1 °C.[Anm. 1][2] 2020 und 2016 waren mit minimalen Temperaturunterschieden die beiden wärmsten Jahre seit Beginn der systematischen Messungen im Jahr 1880.[3] 2016 war ca. 1,1 °C wärmer als in vorindustrieller Zeit.[4] So warm war es nach aktuellen Forschungsergebnissen zuletzt am Ende der Eem-Warmzeit vor 115.000 Jahren. Die 20 wärmsten gemessenen Jahre liegen in den letzten 22 Jahren (Stand 2018)[5] und die fünf wärmsten Jahre waren in absteigender Reihenfolge 2016, 2019, 2015, 2017 und 2018.[6]
Die Erwärmung hat sich beschleunigt: Die über die Jahre 1956 bis 2005 berechnete Anstiegsrate war mit 0,13 ± 0,03 °C pro Jahrzehnt fast doppelt so groß wie die über die Jahre 1906 bis 2005.[7] 2017 hatte die menschengemachte globale Erwärmung gemäß IPCC den Wert von 1 °C erreicht, die Zuwachsrate lag damals bei etwa 0,2 °C pro Jahrzehnt.[8] Die Erwärmung verläuft erheblich schneller als alle bekannten Erwärmungsphasen der Erdneuzeit, also seit 66 Millionen Jahren.[9][10][11] So erwärmt sich die Erde beim Übergang von einer Eiszeit in eine Zwischeneiszeit binnen ca. 10.000 Jahren etwa um 4 bis 5 °C. Bei der menschengemachten globalen Erwärmung wird, ohne verschärfte Klimaschutzmaßnahmen, damit gerechnet, dass die Temperatur vom Ende des 20. bis Ende des 21. Jahrhunderts um 4 bis 5 °C steigt; die Erwärmung wäre also etwa 100-mal schneller als bei historischen natürlichen Klimaveränderungen.[12]
Ursache für die Erwärmung ist die andauernde anthropogene Anreicherung der Erdatmosphäre mit Treibhausgasen, insbesondere Kohlenstoffdioxid (CO2), Methan und Distickstoffmonoxid, die vor allem durch die Verbrennung fossiler Energie, durch Entwaldung sowie Land- und insbesondere Viehwirtschaft freigesetzt werden. Hierdurch erhöht sich das Rückhaltevermögen für infrarote Wärmestrahlung in der Troposphäre, was den Treibhauseffekt verstärkt. Wichtigstes Treibhausgas bei der derzeitigen globalen Erwärmung ist CO2. 2015 stieg die von der Messstation Mauna Loa gemessene mittlere CO2-Konzentration in der Erdatmosphäre erstmals auf über 400 ppm[13]; vor der Industrialisierung hatte sie bei ca. 280 ppm gelegen. Der IPCC schreibt in seinem 2015 erschienenen fünften Sachstandsbericht, dass es extrem wahrscheinlich ist, dass die Menschen mehr als 50 % der 1951 bis 2010 beobachteten Erwärmung verursacht haben. Nach der besten Schätzung beträgt der menschliche Anteil an der Erwärmung während dieses Zeitraums rund 100 %.[14] Diese Werte werden von anderen Sachstandsberichten gestützt.[15] Ohne den gegenwärtigen menschlichen Einfluss auf das Klimasystem würde sich der seit einigen Jahrtausenden herrschende leichte Abkühlungstrend mit hoher Wahrscheinlichkeit weiter fortsetzen.[16]
Der atmosphärische Treibhauseffekt wurde erstmals 1824 von Joseph Fourier beschrieben; ab den 1850er Jahren gab es weitere Forschungen. Der Chemiker und Physiker Svante Arrhenius sagte im Jahr 1896 eine globale Erwärmung durch die von Menschen emittierten CO2-Mengen voraus. 1938 gelang es Guy Stewart Callendar, auf der Basis von Temperaturmessungen erstmals die globale Erwärmung nachzuweisen. Nach dem Zweiten Weltkrieg rückte das Thema zunehmend in den Fokus der Wissenschaft.[17] Die Forscher Roger Revelle und Hans E. Suess sprachen 1957 von einem riesenhaften (large-scale) „geophysikalischen Experiment“.[18] Etwa ab den 1960er Jahren fanden auf internationaler Ebene Gespräche zum Thema einer anthropogen verursachten Klimaveränderung statt. Nathaniel Rich hat in seinem 2019 erschienenen Buch Losing Earth detailliert belegt, wie viel schon in den 1980er Jahren über die globale Erwärmung und ihre Folgen bekannt war.[19] Seit etwa Anfang der 1990er Jahre[20] besteht ein wissenschaftlicher Konsens, dass die seit etwa 1850 gemessene globale Erwärmung vom Menschen verursacht wird.[21]
Zu den laut Klimaforschung erwarteten und teils bereits beobachteten Folgen der globalen Erwärmung zählen je nach Erdregion: Meereis- und Gletscherschmelze, ein Meeresspiegelanstieg, das Auftauen von Permafrostböden mit Freisetzung von Methanhydrat, wachsende Dürrezonen und zunehmende Wetter-Extreme mit entsprechenden Rückwirkungen auf die Lebens- und Überlebenssituation von Menschen und Tieren (Artensterben). Das Ausmaß der Folgen ist abhängig von der Höhe und Dauer der Erwärmung. Einige Folgen können zudem irreversibel sein bzw. zudem auch als Kippelemente im Erdsystem wirken, die die globale Erwärmung mit positiver Rückkopplung ihrerseits beschleunigen, etwa die Freisetzung des Treibhausgases Methan aus den aufgetauten Permafrostböden.
Um die Folgen der globalen Erwärmung für Mensch und Umwelt abzumildern, zielen nationale und internationale Klimapolitik sowohl auf das Stoppen des Klimawandels durch Klimaschutz als auch auf eine Anpassung an die bereits erfolgte Erwärmung. Um die menschengemachte globale Erwärmung aufhalten zu können, müssen weitere energiebedingte Treibhausgasemissionen vollständig vermieden werden und die seit dem Beginn der Industrialisierung in der Atmosphäre eingebrachten Emissionen sowie fortan nicht vermeidbare Emissionen durch negative Treibhausgasemissionen mittels geeigneter Technologien wie z. B. BECCS, DACCS oder Kohlenstoffbindung im Boden wieder vollständig rückgängig gemacht werden. Mit Stand 2016 war bereits ca. 2⁄3 des CO2-Budgets der maximal möglichen Emissionen für das im Übereinkommen von Paris vereinbarte Zwei-Grad-Ziel aufgebraucht, sodass die weltweiten Emissionen schnell gesenkt werden müssten, wenn das Ziel noch erreicht werden soll.[22] Möglicherweise ist das Zwei-Grad-Ziel nicht ambitioniert genug, um langfristig einen als Treibhaus Erde bezeichneten Zustand des Klimasystems zu verhindern, der zu lebensfeindlichen Bedingungen auf der Erde führen würde.[23]
Seit der Industriellen Revolution verstärkt der Mensch den natürlichen Treibhauseffekt durch den Ausstoß von Treibhausgasen, wie messtechnisch belegt werden konnte.[24][25][26] Seit 1990 ist der Strahlungsantrieb – d. h. die Erwärmungswirkung auf das Klima – durch langlebige Treibhausgase um 43 % gestiegen.[27] In der Klimatologie ist es heute Konsens, dass die gestiegene Konzentration der vom Menschen in die Erdatmosphäre freigesetzten Treibhausgase mit hoher Wahrscheinlichkeit die wichtigste Ursache der globalen Erwärmung ist,[28][29] da ohne sie die gemessenen Temperaturen nicht zu erklären sind.[30][31][32]
Treibhausgase lassen die von der Sonne kommende kurzwellige Strahlung weitgehend ungehindert auf die Erde durch, absorbieren aber einen Großteil der von der Erde ausgestrahlten Infrarotstrahlung. Dadurch erwärmen sie sich und emittieren selbst Strahlung im langwelligen Bereich (vgl. Kirchhoffsches Strahlungsgesetz). Der in Richtung der Erdoberfläche gerichtete Strahlungsanteil wird als atmosphärische Gegenstrahlung bezeichnet. Im isotropen Fall wird die absorbierte Energie je zur Hälfte in Richtung Erde und Weltall abgestrahlt. Hierdurch erwärmt sich die Erdoberfläche stärker, als wenn allein die kurzwellige Strahlung der Sonne sie erwärmen würde. Das IPCC schätzt den Grad des wissenschaftlichen Verständnisses über die Wirkung von Treibhausgasen als „hoch“ ein.[33]
Das Treibhausgas Wasserdampf (H2O) trägt mit 36 bis 66 %, Kohlenstoffdioxid (CO2) mit 9 bis 26 % und Methan mit 4 bis 9 % zum natürlichen Treibhauseffekt bei.[34] Die große Bandbreite erklärt sich folgendermaßen: Einerseits gibt es sowohl örtlich wie auch zeitlich große Schwankungen in der Konzentration dieser Gase. Zum anderen überlappen sich deren Absorptionsspektren. Beispiel: Strahlung, die von Wasserdampf bereits absorbiert wurde, kann von CO2 nicht mehr absorbiert werden. Das bedeutet, dass in einer Umgebung wie eisbedeckte Flächen oder Trockenwüste, in der Wasserdampf nur wenig zum Treibhauseffekt beiträgt, die übrigen Treibhausgase mehr zum Gesamttreibhauseffekt beitragen als in den feuchten Tropen.
Da die genannten Treibhausgase natürliche Bestandteile der Atmosphäre sind, wird die von ihnen verursachte Temperaturerhöhung als natürlicher Treibhauseffekt bezeichnet. Der natürliche Treibhauseffekt führt dazu, dass die Durchschnittstemperatur der Erde bei etwa +14 °C liegt.[35][36] Ohne den natürlichen Treibhauseffekt läge sie bei etwa −18 °C.[37] Hierbei handelt es sich um rechnerisch bestimmte Werte (siehe auch Idealisiertes Treibhausmodell). In der Literatur können diese Werte gegebenenfalls leicht abweichen, je nach Rechenansatz und der zu Grunde gelegten Annahmen, zum Beispiel dem Reflexionsverhalten (Albedo) der Erde. Diese Werte dienen als Nachweis, dass es einen natürlichen Treibhauseffekt gibt, da ohne ihn die Temperatur entsprechend deutlich geringer sein müsste und sich die höhere Temperatur mit dem Treibhauseffekt erklären lässt. Abweichungen von wenigen Grad Celsius spielen bei diesem Nachweis zunächst keine wesentliche Rolle.
Die derzeit beobachtete globale Erwärmung ist praktisch ausschließlich auf menschliche Aktivitäten zurückzuführen. Der wahrscheinliche menschliche Anteil an der Erwärmung des Zeitraums 1951 bis 2010 liegt bei mindestens 93 % und könnte bei bis zu 123 %, also über 100 % liegen, was durch die Kompensation diverser Abkühlungsfaktoren möglich ist.[15] Hauptursache ist die durch menschliche Aktivitäten steigende Treibhausgaskonzentration in der Erdatmosphäre. Im Fünften Sachstandsbericht des IPCC wird der daraus resultierende zusätzliche Strahlungsantrieb im Jahr 2011 im Vergleich zum Referenzjahr 1750 netto (das heißt nach Abzug ebenfalls kühlender Effekte zum Beispiel durch Aerosole) mit 2,3 W/m² beziffert. Brutto verursachten alle langlebigen Treibhausgase einen Strahlungsantrieb von 2,83 W/m². Bedeutendstes Treibhausgas war CO2 mit 1,82 W/m², gefolgt von Methan mit 0,48 W/m². Halogenkohlenwasserstoffe verursachten einen Strahlungsantrieb von 0,36 W/m², Lachgas 0,17 W/m². Von den kurzlebigen Treibhausgasen hat Ozon, dessen Entstehung durch Stickoxide, Kohlenmonoxid oder Kohlenwasserstoffe angeregt wird, mit 0,4 W/m² den höchsten Strahlungsantrieb. Einen negativen (das heißt kühlenden) Strahlungsantrieb in Höhe von −0,9 W/m² verursachen Aerosole.[38]
Hingegen sind Veränderungen der natürlichen Sonnenaktivität ein unbedeutender Faktor bei der gegenwärtig beobachteten Erderwärmung. Die Sonnenaktivität machte im gleichen Zeitraum einen Strahlungsantrieb von nur 0,1 W/m² aus; seit Mitte des 20. Jahrhunderts ging die Sonnenaktivität sogar zurück.[39]
Der Anteil aller vier Bestandteile des natürlichen Treibhauseffekts in der Atmosphäre ist seit dem Beginn der industriellen Revolution gestiegen. Die Geschwindigkeit des Konzentrationsanstiegs ist die schnellste der letzten 22.000 Jahre.[41]
Die Konzentration von CO2 in der Erdatmosphäre ist vor allem durch die Nutzung fossiler Energie, durch die Zementindustrie und großflächige Entwaldung seit Beginn der Industrialisierung von ca. 280 ppmV um 40 % auf ca. 400 ppmV (parts per million, Teile pro Million Volumenanteil) im Jahr 2015 gestiegen.[42] Während der letzten 14 Millionen Jahre (seit dem Mittleren Miozän) existierten keine signifikant höheren CO2-Werte als gegenwärtig.[43][44] Nach Messungen aus Eisbohrkernen betrug die CO2-Konzentration in den letzten 800.000 Jahren nie mehr als 300 ppmV.[45][46] Pro Tag werden ca. 100 Mio. Tonnen Kohlendioxid durch menschliche Aktivitäten in die Atmosphäre freigesetzt (Stand 2020).[47]
Der Volumenanteil von Methan stieg von 730 ppbV im Jahr 1750 auf 1.800 ppbV (parts per billion, Teile pro Milliarde Volumenanteil) im Jahr 2011 an. Dies ist ein Anstieg um 150 % und wie bei CO2 der höchste Stand seit mindestens 800.000 Jahren.[48] Als Hauptursache hierfür gilt derzeit die Viehhaltung[49], gefolgt von weiteren landwirtschaftlichen Aktivitäten wie dem Anbau von Reis.[50] Das Treibhauspotenzial von 1 kg Methan ist, auf einen Zeitraum von 100 Jahren betrachtet, 25-mal höher als das von 1 kg CO2.[51] Nach einer neueren Untersuchung beträgt dieser Faktor sogar 33, wenn Wechselwirkungen mit atmosphärischen Aerosolen berücksichtigt werden.[52] In einer sauerstoffhaltigen Atmosphäre wird Methan jedoch oxidiert, meist durch Hydroxyl-Radikale. Ein einmal in die Atmosphäre gelangtes Methan-Molekül hat dort eine durchschnittliche Verweilzeit von zwölf Jahren.[51]
Im Unterschied dazu liegt die Verweildauer von CO2 teilweise im Bereich von Jahrhunderten. Die Ozeane nehmen atmosphärisches CO2 zwar sehr rasch auf: Ein CO2-Molekül wird nach durchschnittlich fünf Jahren in den Ozeanen gelöst. Diese geben es aber auch wieder an die Atmosphäre ab, so dass ein Teil des vom Menschen emittierten CO2 letztlich für mehrere Jahrhunderte (ca. 30 %) und ein weiterer Teil (ca. 20 %) sogar für Jahrtausende im Kohlenstoffkreislauf von Hydrosphäre und Atmosphäre verbleibt.[53]
Der Volumenanteil von Lachgas stieg von vorindustriell 270 ppbV auf mittlerweile 323 ppbV.[54] Durch sein Absorptionsspektrum trägt es dazu bei, ein sonst zum Weltall hin offenes Strahlungsfenster zu schließen. Trotz seiner sehr geringen Konzentration in der Atmosphäre trägt es zum anthropogenen Treibhauseffekt etwa 6 % bei, da seine Wirkung als Treibhausgas 298-mal stärker ist als die von CO2; daneben hat es auch eine recht hohe atmosphärische Verweilzeit von 114 Jahren.[51]
Die Wasserdampfkonzentration der Atmosphäre wird durch anthropogene Wasserdampfemissionen nicht signifikant verändert, da zusätzlich in die Atmosphäre eingebrachtes Wasser innerhalb weniger Tage auskondensiert. Steigende globale Durchschnittstemperaturen führen jedoch zu einem höheren Dampfdruck, das heißt einer stärkeren Verdunstung. Der damit global ansteigende Wasserdampfgehalt der Atmosphäre treibt die globale Erwärmung zusätzlich an. Wasserdampf wirkt somit im Wesentlichen als Rückkopplungsglied. Diese Wasserdampf-Rückkopplung ist neben der Eis-Albedo-Rückkopplung die stärkste, positiv wirkende Rückkopplung im globalen Klimageschehen.[55]
Neben Treibhausgasen beeinflussen auch die Sonnenaktivität sowie Aerosole das Erdklima. Aerosole liefern von allen festgestellten Beiträgen zum Strahlungsantrieb die größte Unsicherheit, und das Verständnis über sie wird vom IPCC als „gering“ bezeichnet.[33] Die Wirkung eines Aerosols auf die Lufttemperatur ist abhängig von seiner Flughöhe in der Atmosphäre. In der untersten Atmosphärenschicht, der Troposphäre, sorgen Rußpartikel für einen Temperaturanstieg, da sie das Sonnenlicht absorbieren und anschließend Wärmestrahlung abgeben. Die verringerte Reflektivität (Albedo) von Schnee- und Eisflächen und anschließend darauf niedergegangenen Rußpartikeln wirkt ebenfalls erwärmend. In höheren Luftschichten hingegen sorgen Mineralpartikel durch ihre abschirmende Wirkung dafür, dass es an der Erdoberfläche kühler wird.
Einen großen Unsicherheitsfaktor bei der Bemessung der Klimawirkung von Aerosolen stellt ihr Einfluss auf die ebenfalls nicht vollständig verstandene Wolkenbildung dar. Trotz der Unsicherheiten wird Aerosolen insgesamt eine deutlich abkühlende Wirkung zugemessen. Abnehmende Luftverschmutzung könnte daher zur globalen Erwärmung beitragen.[56][57]
Der zwischen den 1940er und Mitte der 1970er Jahre beobachtete Rückgang der globalen Durchschnittstemperaturen sowie die zeitweise Stagnation der globalen Durchschnittstemperaturen nach dem Jahr 2000 wird zum großen Teil der kühlenden Wirkung von Sulfataerosolen zugeschrieben,[58] die im ersten Fall in Europa und den USA und im letzten Fall in der Volksrepublik China und Indien zu verorten waren.[59]
Eine Reihe von Faktoren beeinflussen das globale Klimasystem. In der Diskussion um die Ursachen der globalen Erwärmung werden oft Faktoren genannt, die nachrangig sind oder sogar kühlend auf das Klimasystem wirken. So ist eine veränderte kosmische Strahlung nicht für die gegenwärtig beobachtete Erwärmung verantwortlich.[60][61][62] Die Erde befindet sich etwa seit 1850, also etwa seit dem Beginn der industriellen Revolution, in einer Phase der Wiedererwärmung aus der kleinen Eiszeit. Unabhängig davon würde sich ohne die Eingriffe des Menschen in den natürlichen Klimaverlauf der seit 6000 Jahren bestehende Abkühlungstrend von 0,10 bis 0,15 °C pro Jahrtausend fortsetzen und – je nach Literaturquelle – in 20.000 bis 50.000 Jahren in eine neue Kaltzeit führen.[63][64]
Die Annahme, das Ozonloch sei eine wesentliche Ursache der globalen Erwärmung, ist falsch. Der Abbau des Ozons in der Stratosphäre hat einen leicht kühlenden Effekt.[65] Der Ozonabbau wirkt hierbei auf zweierlei Arten: Die verringerte Ozonkonzentration kühlt die Stratosphäre, da die UV-Strahlung dort nicht mehr absorbiert wird, wärmt hingegen die Troposphäre, da die UV-Strahlung an der Erdoberfläche absorbiert wird und diese erwärmt. Die kältere Stratosphäre schickt weniger wärmende Infrarotstrahlung nach unten und kühlt damit die Troposphäre. Insgesamt dominiert der Kühlungseffekt, so dass das IPCC folgert, dass der beobachtete Ozonschwund im Verlauf der letzten beiden Dekaden zu einem negativen Strahlungsantrieb auf das Klimasystem geführt hat,[66] der sich auf etwa −0,15 ± 0,10 Watt pro Quadratmeter (W/m²) beziffern lässt.[67]
Veränderungen in der Sonne wird ein geringer Einfluss auf die gemessene globale Erwärmung zugesprochen.[68][69] Die seit 1978 direkt vom Orbit aus gemessene Änderung ihrer Strahlungsintensität ist bei weitem zu klein, um als Hauptursache für die seither beobachtete Temperaturentwicklung in Frage zu kommen.[69] Seit den 1960er Jahren ist der Verlauf der globalen Durchschnittstemperatur von der Strahlungsintensität der Sonne entkoppelt,[70] seit 1978 hat die verminderte Strahlungsintensität sehr wahrscheinlich der globalen Erwärmung etwas entgegengewirkt.[69]
Das IPCC schätzte 2013 den zusätzlichen Strahlungsantrieb durch die Sonne seit Beginn der Industrialisierung auf etwa 0,05 (± 0,05) Watt pro Quadratmeter. Im Vergleich dazu tragen die anthropogenen Treibhausgase mit 2,83 (± 0,29) W/m² zur Erwärmung bei.[69] Das IPCC schreibt, dass der Grad des wissenschaftlichen Verständnisses bezüglich des Einflusses solarer Variabilität vom Dritten zum Vierten Sachstandsbericht von „sehr gering“ auf „gering“ zugenommen hat.[33] Im fünften Sachstandsbericht misst der IPCC seiner Schätzung zum solaren Strahlungsantrieb seit 1750 „mittlere Aussagekraft“ bei, für die letzten drei Dekaden ist die Aussagekraft höher.[71]
Das Argument, dass kosmische Strahlung die Wirkung der Sonnenaktivität verstärke, beruht auf einer Studie von Henrik Svensmark und Egil Friis-Christensen.[72] Sie gehen davon aus, dass kosmische Strahlung die Bildung von Wolken beeinflusse und so indirekten Einfluss auf die Erdoberflächentemperatur habe.[73] Damit soll erklärt werden, wie Schwankungen der Sonnenaktivität – trotz der nur geringen Veränderung der Sonnenstrahlung – die beobachtete globale Temperaturerhöhung auslösen kann. Neuere wissenschaftliche Studien, vor allem aus dem CLOUD-Experiment, zeigen jedoch, dass der Einfluss der kosmischen Strahlung auf die Wolkenbildung gering ist.[74][75][76][77][78][79] Der IPCC hielt in seinem 2013 erschienenen 5. Sachstandsbericht fest, dass es zwar Hinweise auf einen derartigen Wirkmechanismus gebe, dieser aber zu schwach sei, um das Klima nennenswert zu beeinflussen.[80] Ebenfalls ist die kosmische Strahlung als verstärkender Faktor abhängig von der Sonnenaktivität und könnte bei deren negativen Trend seit den 1960er Jahren höchstens eine kühlende Wirkung verstärkt haben.[72]
Große Vulkanausbrüche der Kategorie VEI-5 oder VEI-6 auf dem Vulkanexplosivitätsindex können aufgrund der Emission von Vulkanasche und Aerosolen bis in die Stratosphäre eine hemisphärische oder weltweite Abkühlung (etwa −0,3 bis −0,5 °C) über mehrere Jahre hervorrufen.[81] Es wird davon ausgegangen, dass eine hohe Vulkanaktivität beispielsweise einen erheblichen Einfluss auf die Temperaturentwicklung während der kleinen Eiszeit ausübte.[82][83][84] Die Wirkung der Vulkanaktivität weist in den letzten 60 Jahren einen leicht kühlenden Trend auf, kann also die Erwärmung ebenfalls nicht erklären.
Manchmal wird argumentiert, das von den Vulkanen ausgestoßene CO2 wäre für den zusätzlichen Treibhauseffekt verantwortlich. Vulkane setzen aber jährlich nur etwa 210 bis 360 Megatonnen CO2 frei.[85] Das ist etwa ein Hundertstel der jährlichen menschgemachten CO2-Emission.[86] Zwar wird das größte Massenaussterben der Erdgeschichte an der Perm-Trias-Grenze durch einen starken vulkanbedingten Treibhauseffekt erklärt, jedoch handelte es sich damals um einen Megavulkanismus, der mit heutigen Vulkanaktivitäten nicht vergleichbar ist.
Wasserdampf ist mit einem atmosphärischen Anteil von etwa 0,4 % das in seiner Gesamtwirkung stärkste Treibhausgas und für rund zwei Drittel des natürlichen Treibhauseffekts verantwortlich. CO2 ist der zweitwichtigste Faktor und macht den größten Teil des restlichen Treibhauseffekts aus.[87] Die Konzentration von Wasserdampf in der Atmosphäre ist jedoch hauptsächlich abhängig von der Lufttemperatur (nach der Clausius-Clapeyron-Gleichung kann Luft pro Grad Celsius Erwärmung rund 7 % mehr Wasserdampf aufnehmen). Erhöht sich die Temperatur durch einen anderen Einflussfaktor, steigt die Wasserdampfkonzentration und damit deren Treibhausgaswirkung – was zu einem weiteren Anstieg der Temperatur führt. Wasserdampf verstärkt somit die durch andere Faktoren ausgelöste Temperaturveränderungen.[88] Dieser Effekt wird Wasserdampf-Rückkopplung genannt.[89] Wasserdampf bewirkt deshalb eine Verdoppelung bis Verdreifachung der allein durch die Erhöhung der CO2-Konzentration ausgelösten Erwärmung.[90]
Bei fast allen Prozessen entsteht Wärme, so bei der Produktion von elektrischem Strom, bei der Nutzung von Verbrennungsmotoren (siehe Wirkungsgrad) oder beim Betrieb von Computern. In den USA und Westeuropa trugen Gebäudeheizung, industrielle Prozesse und Verbrennungsmotoren im Jahr 2008 mit 0,39 W/m² bzw. 0,68 W/m² zur Erwärmung bei und haben damit einen gewissen Einfluss auf das regionale Klimageschehen. Weltweit gesehen betrug dieser Wert 0,028 W/m² (also nur etwa 1 % der globalen Erwärmung).[91][92] Merkliche Beiträge zur Erwärmung sind für den Fall des weiteren ungebremsten Anstiegs der Energieerzeugung (wie in den vergangenen Jahrzehnten) ab dem Ende unseres Jahrhunderts zu erwarten.[91][93][94] Betrachtet man die gesamte Verweildauer von Kohlendioxid in der Atmosphäre, dann übersteigt der treibhauseffektbedingte Strahlungsantrieb infolge der Verbrennung von Kohlenstoff die bei dem Verbrennungsprozess freiwerdende Wärme mehr als 100.000-fach.[95]
Die Temperatur in Städten liegt oft höher als im Umland, da durch Heizungen und industrielle Prozesse Wärme produziert wird. Diese wird in Häusern und versiegelten Flächen stärker aufgenommen. Der Temperaturunterschied kann in großen Städten bis zu 10 °C betragen.[96] Da viele Temperaturmessungen in Städten erfolgen, könnte dies zu einer virtuellen Erhöhung der globalen Temperatur führen.[97] Allerdings werden in Messungen der globalen Temperatur die Temperaturveränderungen und nicht die absoluten Werte berücksichtigt.[98] Zudem werden die Temperaturmessungen in Städten oft auf Grünflächen durchgeführt, die aufgrund der Begrünung kühler sind.[99] Kontrollrechnungen der globalen Temperatur mit ausschließlich ländlichen Stationen ergeben praktisch die gleichen Temperaturtrends wie die Berechnung aus allen Stationen.[100]
Als Hauptanzeichen für die derzeitige globale Erwärmung gelten die seit etwa 1850 vorliegenden weltweiten Temperaturmessungen sowie die Auswertungen verschiedener Klimaarchive. Verglichen mit den Schwankungen der Jahreszeiten sowie beim Wechsel von Tag und Nacht erscheinen die im Folgenden genannten Zahlen klein; als globale Änderung des Klimas bedeuten sie jedoch sehr viel, wenn man die um nur etwa 6 K niedriger liegende Durchschnittstemperatur auf der Erde während der letzten Eiszeit bedenkt.[101]
Im Jahr 2005 wurde u. a. aufgrund der gemessenen Temperaturzunahme der Meere über eine Dekade errechnet, dass die Erde 0,85 Watt pro Quadratmeter mehr Leistung aufnimmt als sie ins All abstrahlt.[102][103]
Laut einer im Jahr 2016 erschienenen Publikation begann die globale Durchschnittstemperatur bereits seit dem Jahr 1830 aufgrund menschlicher Aktivitäten zu steigen. Dies wurde im Rahmen einer breit angelegten Studie gefunden, bei der eine große Zahl weltweit verteilter, paläoklimatologischer Anzeiger vergangener Zeiten (sogenannte Klimaproxys) ausgewertet wurden. Zu dieser Zeit gab es noch kein dichtes Netz von Temperaturmessstationen.[105] Eine deutliche Erwärmungsphase war zwischen 1910 und 1945 zu beobachten, in der aufgrund der noch vergleichsweise geringen Konzentration von Treibhausgasen auch natürliche Schwankungen einen deutlichen Einfluss hatten. Am ausgeprägtesten ist die Erwärmung von 1975 bis heute.
2016 war das wärmste Jahr seit Beginn der Messungen im Jahr 1880. Es war ca. 1,1 °C wärmer als in vorindustrieller Zeit. 2017 war das bisher wärmste Nicht-El-Niño-Jahr und zugleich das zweitwärmste Jahr seit Beginn der Messungen.[106] Seit den 1980er Jahren war jedes Jahrzehnt wärmer als das vorangegangene; die fünf wärmsten Jahre waren in absteigender Reihenfolge 2016, 2019, 2015, 2017 und 2018.[6] Nach Zahlen des Copernicus-Programms lag die Erwärmung sogar um 1,3 °C oberhalb des Niveaus der vorindustriellen Zeit, womit die politisch anvisierte Grenze von 1,5 °C zeitweise nahezu erreicht war. Gegenüber dem Jahr 2015 hat die zusätzliche Erwärmung 0,2 °C betragen.[107]
Zwischen 1880 und 2012 nahmen die global gemittelten, bodennahen Lufttemperaturen um 0,85 °C zu.[41] Insbesondere bei kurzen Zeitreihen ist zu berücksichtigen, dass Anfangs- und Endjahr starken Einfluss auf den Trend haben können und somit nicht zwingend langfristige Trends widerspiegeln müssen. Ein Beispiel für eine solche Abweichung ist der Zeitraum zwischen 1998 und 2012, der mit einem starken El Niño und damit außergewöhnlich heißen Jahr begann, weshalb der Erwärmungstrend mit 0,05 °C pro Jahrzehnt in diesem Zeitraum deutlich unter dem langfristigen Trend von 0,12 °C pro Jahrzehnt im Zeitraum 1951 bis 2012 zurückblieb.[108] Trotzdem waren die 30 Jahre von 1983 bis 2012 auf der Nordhalbkugel die wärmste Normalperiode seit 1400 Jahren.[41] In dem Zusammenhang kommt eine 2020 veröffentlichte Studie auf der Basis einer detaillierten Auswertung von Paläo-Klimadaten zu dem Schluss, dass die im bisherigen 21. Jahrhundert aufgetretene Erwärmung die Temperaturwerte des Holozänen Klimaoptimums (vor etwa 8000 bis 6000 Jahren) mit hoher Wahrscheinlichkeit übertrifft.[109]
In einer 2007 erschienenen Studie konnte der natürliche Anteil der Erwärmung des 20. Jahrhunderts auf unter 0,2 K eingegrenzt werden.[110]
Neben der Luft haben sich auch die Ozeane erwärmt, die über 90 % der zusätzlichen Wärmeenergie aufgenommen haben.[111] Während sich die Weltmeere von 1955 bis Mitte der 2000er Jahre aufgrund ihres enormen Volumens und ihrer großen Temperaturträgheit insgesamt nur um 0,04 K aufgeheizt haben, erhöhte sich ihre Oberflächentemperatur im selben Zeitraum um 0,6 K.[112] Im Bereich von der Meeresoberfläche bis zu einer Tiefe von 75 Metern stieg die Temperatur von 1971 bis 2010 um durchschnittlich 0,11 K pro Jahrzehnt an.[41]
Der Energieinhalt der Weltmeere nahm zwischen Mitte der 1950er Jahre und 1998 um ca. 14,5 × 1022 Joule zu, was einer Heizleistung von 0,2 Watt pro m² der gesamten Erdoberfläche entspricht.[113] Die Energiezunahme der Weltmeere in Höhe von 14,5 × 1022 Joule entspricht der Energie von 100 Millionen Hiroshima-Atombomben; diese Energiemenge würde die unteren 10 Kilometer der Atmosphäre um 22 K erwärmen.[114] Über den Zeitraum 1971 und 2016 lag die gemittelte Wärmeaufnahme der Ozeane bei einer Leistung von etwa 200 Terawatt und damit mehr als 10 Mal so hoch wie der komplette Weltenergieverbrauch der Menschheit.[115]
Seit dem Jahr 2000 wird der Wärmeinhalt der Ozeane mit Hilfe des Argo-Programms vermessen, wodurch seit dieser Zeit erheblich genauere Daten über den Zustand wie auch die Veränderung von klimatologisch relevanten Messwerten (z. B. Wärmeinhalt, Salinität, Tiefenprofil) verfügbar sind. Die letzten zehn Jahre waren die wärmsten Jahre für die Ozeane seit Beginn der Messungen; 2019 das bisher wärmste.[116]
Luft über Landflächen erwärmt sich allgemein stärker als über Wasserflächen,[117] was in der Animation am Anfang dieses Artikels (dritte Stelle ganz oben rechts) erkennbar ist. Die Erwärmung der Landflächen zwischen 1970 und 2014 lag im Mittel bei 0,26 K und damit mehr als doppelt so hoch wie über dem Meer, das sich im selben Zeitraum um 0,12 K erwärmte.[118] Aufgrund dieser unterschiedlichen schnellen Erwärmung von Land und See haben sich viele Regionen an Land bereits um mehr als 1,5 Grad Celsius erwärmt.[119] Gleichsam stiegen die Temperaturen auf der Nordhalbkugel, auf der sich der Großteil der Landflächen befindet, in den vergangenen 100 Jahren stärker an als auf der Südhalbkugel, wie auch die nebenstehende Grafik zeigt.[120]
Die Nacht- und Wintertemperaturen stiegen etwas stärker an als die Tages- und Sommertemperaturen.[121][122] Aufgeteilt nach Jahreszeiten wurde die größte Erwärmung während der Wintermonate gemessen, und dabei besonders stark über dem westlichen Nordamerika, Skandinavien und Sibirien.[123] Im Frühling stiegen die Temperaturen am stärksten in Europa sowie in Nord- und Ostasien an. Im Sommer waren Europa und Nordafrika am stärksten betroffen, und im Herbst entfiel die größte Steigerung auf den Norden Nordamerikas, Grönland und Ostasien.[124] Besonders markant fiel die Erwärmung in der Arktis aus, wo sie im jährlichen Mittel etwa doppelt so hoch ist wie im globalen Durchschnitt.[125][126] Mit Ausnahme weniger Regionen ist die Erwärmung seit 1979 weltweit nachweisbar.[124]
Für die verschiedenen Luftschichten der Erdatmosphäre wird theoretisch eine unterschiedliche Erwärmung erwartet und faktisch auch gemessen. Während sich die Erdoberfläche und die niedrige bis mittlere Troposphäre erwärmen sollten, lassen Modelle für die höher gelegene Stratosphäre eine Abkühlung vermuten.[127] Tatsächlich wurde genau dieses Muster in Messungen gefunden. Die Satellitendaten zeigen eine Abnahme der Temperatur der unteren Stratosphäre von 0,314 K pro Jahrzehnt während der letzten 30 Jahre.[128] Diese Abkühlung wird zum einen durch den verstärkten Treibhauseffekt und zum anderen durch Ozonschwund durch FCKWs in der Stratosphäre verursacht,[129][130] siehe auch Montrealer Protokoll zum Schutz der Ozonschicht. Wäre die Sonne maßgebliche Ursache, hätten sich sowohl die oberflächennahen Schichten, die niedere bis mittlere Troposphäre wie auch die Stratosphäre erwärmen müssen.[127] Nach dem gegenwärtigen Verständnis heißt dies, dass der überwiegende Teil der beobachteten Erwärmung durch menschliche Aktivitäten verursacht sein muss.
Die zehn wärmsten Jahre im Zeitraum von 1880 bis 2019 – Abweichung von der langjährigen Durchschnitts-Temperatur (1901-2000) in °C
|
|
Auch bei Annahme einer Erwärmung um 4 K bis zum Ende des 21. Jahrhunderts wird es im Verlauf immer wieder Phasen der Stagnation oder sogar der Abkühlung geben. Diese Phasen können bis zu ca. 15 Jahre andauern.[133] Ursachen sind der elfjährige Sonnenfleckenzyklus, kühlende starke Vulkanausbrüche sowie die natürliche Eigenschaft des Weltklimas, einen schwingenden Temperaturverlauf zu zeigen (AMO, PDO, ENSO). So kann beispielsweise das Auftreten von El-Niño- bzw. La-Niña-Ereignissen die globale Durchschnittstemperatur von einem Jahr auf das andere um 0,2 K erhöhen bzw. absenken und für wenige Jahre den jährlichen Erwärmungstrend von ca. 0,02 K überdecken, aber auch verstärken.[134][135]
Das globale Klimasystem ist von Rückkopplungen geprägt, die Temperaturveränderungen verstärken oder abschwächen. Eine die Ursache verstärkende Rückkopplung wird als positive Rückkopplung bezeichnet. Bei bestimmten Zuständen des globalen Klimageschehens sind nach heutigem Kenntnisstand die positiven Rückkopplungen deutlich stärker als die negativen Rückkopplungen, so dass das Klimasystem in einen anderen Zustand kippen kann.
Die beiden stärksten, positiv wirkenden Rückkopplungsprozesse sind die Eis-Albedo-Rückkopplung und die Wasserdampf-Rückkopplung. Ein Abschmelzen der Polkappen bewirkt durch verminderte Reflexion einen zusätzlichen Energieeintrag über die Eis-Albedo-Rückkopplung.[136] Die Wasserdampfrückkopplung entsteht dadurch, dass die Atmosphäre einer wärmeren Welt auch mehr Wasserdampf enthält. Da Wasserdampf das mit Abstand mächtigste Treibhausgas ist, wird dadurch ein eingeleiteter Erwärmungsprozess weiter verstärkt – unabhängig davon, was diese Erwärmung letztlich ausgelöst hat.[55] Gleiches gilt auch bei einer Abkühlung, die durch dieselben Prozesse weiter verstärkt wird. Zur quantitativen Beschreibung der Reaktion des Klimas auf Veränderungen der Strahlungsbilanz wurde der Begriff der Klimasensitivität etabliert. Mit ihr lassen sich unterschiedliche Einflussgrößen gut miteinander vergleichen.
Eine weitere positive Rückkopplung erfolgt durch das CO2 selbst. Mit zunehmender Erderwärmung wird auch das Wasser in den Ozeanen wärmer und kann dadurch weniger CO2 aufnehmen. Als Folge davon kann vermehrt CO2 in die Atmosphäre gelangen, was den Treibhauseffekt zusätzlich verstärken kann. Zurzeit nehmen die Ozeane aber jährlich noch rund 2 Gt Kohlenstoff (das entspricht rund 7,3 Gt CO2) mehr auf als sie im gleichen Zeitraum an die Atmosphäre abgeben, siehe Versauerung der Meere.
Neben diesen drei physikalisch gut verstandenen Rückkopplungen existieren jedoch noch weitere Rückkopplungsfaktoren, deren Wirken weit schwieriger abschätzbar ist, insbesondere bezüglich der Wolken, der Vegetation und des Bodens.
Wolken beeinflussen das Klima der Erde maßgeblich, indem sie einen Teil der einfallenden Strahlung reflektieren. Strahlung, die von der Sonne kommt, wird zurück ins All, Strahlung darunter liegender Atmosphärenschichten in Richtung Boden reflektiert. Die Helligkeit der Wolken stammt von kurzwelliger Strahlung im sichtbaren Wellenlängenbereich.[137]
Eine größere optische Dicke niedriger Wolken bewirkt, dass mehr Energie ins All zurückgestrahlt wird; die Temperatur der Erde sinkt. Umgekehrt lassen weniger dichte Wolken mehr Sonnenstrahlung passieren, was darunter liegende Atmosphärenschichten wärmt. Niedrige Wolken sind oft dicht und reflektieren viel Sonnenlicht zurück in den Weltraum. Sie liegen auch niedriger in der Atmosphäre, wo Temperaturen höher sind, und strahlen deshalb mehr Wärme ab. Die Tendenz niedriger Wolken ist daher, die Erde zu kühlen.[137]
Hohe Wolken sind meist dünn und nicht sehr reflektierend. Sie lassen zwar einen Großteil der Sonnenwärme durch, vermindern aber die Sonnenlichteinstrahlung etwas, so dass die Photosyntheseleistung der Grünpflanzen auch durch hohe Cirrus-Schleier oder viele Kondensstreifen beeinträchtigt, nachts aber die Wärmeabstrahlung der Erdoberfläche und damit die nächtliche Abkühlung etwas vermindert wird. Da sie sehr hoch liegen, wo die Lufttemperatur sehr niedrig ist, strahlen diese Wolken nicht viel Wärme ab. Die Tendenz hoher Wolken ist, die Erde nachts ein wenig zu erwärmen.[137]
Die Vegetation und die Beschaffenheit des Bodens und insbesondere seine Versiegelung, Entwaldung oder landwirtschaftliche Nutzung haben maßgeblichen Einfluss auf die Verdunstung und somit auf die Wolkenbildung und das Klima.[137] Nachgewiesen wurde ebenfalls eine Verminderung der Wolkenbildung durch Pflanzen: diese emittieren bei einem CO2-Anstieg bis zu 15 Prozent weniger Wasserdampf frei; das wiederum reduziert die Wolkenbildung.[138][139]
Insgesamt wird die globale Erwärmung durch Wolken-Rückkopplungen wahrscheinlich noch verstärkt.[140][141] Eine 2019 veröffentlichte Simulation deutet darauf hin, dass bei einer CO2-Konzentration über 1.200 ppm Stratocumuluswolken in verstreute Wolken zerfallen könnten, was die globale Erwärmung weiter vorantreiben würde.[142][143]
Vegetation und Boden reflektieren je nach Beschaffenheit das einfallende Sonnenlicht unterschiedlich. Reflektiertes Sonnenlicht wird als kurzwellige Sonnenstrahlung in den Weltraum zurückgeworfen (anderenfalls wäre die Erdoberfläche aus Sicht des Weltalls ohne Infrarotkamera schwarz). Die Albedo ist ein Maß für das Rückstrahlvermögen von diffus reflektierenden (reemittierenden), also nicht spiegelnden und nicht selbst leuchtenden Oberflächen.
Oberflächen | Albedo in % |
---|---|
Siedlungen | 15 bis 20 |
Tropischer Regenwald | 10 bis 12 |
Laubwald | 12 bis 15 |
Kulturflächen | 15 bis 30 |
Grünland | 12 bis 30 |
Ackerboden | 15 bis 30 |
Sandboden | 15 bis 40 |
Dünensand | 30 bis 60 |
Gletschereis | 30 bis 75 |
Asphalt | 15 |
Wolken | 60 bis 90 |
Wasser | 5 bis 22 |
Nicht nur der Verbrauch von fossilen Energieträgern führt zu einer Freisetzung von Treibhausgasen. Die intensive Bestellung von Ackerland und die Entwaldung sind ebenfalls bedeutende Treibhausgasquellen. Die Vegetation benötigt für den Prozess der Photosynthese CO2 zum Wachsen. Der Boden ist eine wichtige Senke, da er organisches, kohlenstoffhaltiges Material enthält. Durch ackerbauliche Tätigkeiten wie Pflügen wird dieser gespeicherte Kohlenstoff leichter in Form von CO2 freigesetzt, weil mehr Sauerstoff in den Boden eintreten kann und das organische Material schneller zersetzt wird.[144] Wahrscheinlich nimmt bei steigender Temperatur die Freisetzung von Methan aus Feuchtgebieten zu; über die Höhe der Freisetzung herrscht (Stand 2013) noch Ungewissheit.[145]
Im Permafrost Westsibiriens lagern 70 Milliarden Tonnen Methan, in Ozeanen haben sich an den Kontinentalhängen noch viel größere Mengen in Form von Methanhydrat abgelagert.[146][147] Durch lokale Klimaveränderungen (aktuell: +3 K innerhalb von 40 Jahren in Westsibirien) könnten auch bei geringer globaler Erwärmung regional kritische Temperaturen erreicht werden; es besteht die Gefahr der Freisetzung des dort gespeicherten Methans in die Atmosphäre.[148][149][150][151]
Eine Berechnung unter Annahme derartiger Rückkopplungen wurde von Wissenschaftlern der University of California, Berkeley erstellt, die annahmen, dass der CO2-Gehalt der Atmosphäre sich von den derzeitigen etwa 390 ppmV bis 2100 auf etwa 550 ppmV erhöhen wird. Dies sei allein der von der Menschheit bewirkte anthropogene Zuwachs. Die erhöhte Temperatur führt zu zusätzlicher Freisetzung von Treibhausgasen, insbesondere CO2 und Methan. Bei ansteigender Temperatur erfolgt eine erhöhte Freisetzung von CO2 aus den Weltmeeren und die beschleunigte Verrottung von Biomasse, was zusätzliches Methan und CO2 freisetzt. Durch diese Rückkopplung könnte die globale Erwärmung um 2 K stärker ausfallen als 2006 angenommen wurde.[152] Aus diesem und anderen Gründen schätzt Barrie Pittock in Eos, der Publikation der American Geophysical Union, dass die zukünftige Erwärmung über die vom IPCC genannten Bandbreiten hinausgehen könnte. Er nennt acht Gründe für seine Vermutung, darunter unter anderem auch den Rückgang der globalen Verdunkelung und Rückkopplungseffekte durch Biomasse.[153]
Bei einer Verdoppelung der CO2-Konzentration in der Atmosphäre gehen Klimaforscher davon aus, dass die Erhöhung der Erdmitteltemperatur innerhalb von 1,5 bis 4,5 K liegen wird.[41] Dieser Wert ist auch als Klimasensitivität bekannt und ist auf das vorindustrielle Niveau (von 1750) bezogen, ebenso wie der dafür maßgebende Strahlungsantrieb; mit dieser Größe werden alle bekannten, die Strahlungsbilanz der Erde beeinflussenden Faktoren vom IPCC quantitativ beschrieben und vergleichbar gemacht. Das IPCC rechnet gemäß 5. Sachstandsbericht bis zum Jahr 2100 mit einer Zunahme der globalen Durchschnittstemperatur um 1,0 bis 3,7 K (bezogen auf 1986–2005 und abhängig vom THG-Emissionspfad und angewandtem Klimamodell).[154]:61 Zum Vergleich: Die schnellste Erwärmung im Verlauf von der letzten Eiszeit zur heutigen Warmzeit war eine Erwärmung um etwa ein Grad pro 1000 Jahre.[155][156]
Nach einer Studie an der Carnegie Institution for Science, in der die Ergebnisse eines Kohlenstoff-Zyklus-Modells mit Daten aus Vergleichsuntersuchungen zwischen Klimamodellen des fünften IPCC-Sachstandsberichts ausgewertet wurden, reagiert das globale Klimasystem auf einen CO2-Eintrag mit einer zeitlichen Verzögerung von etwa 10 Jahren mit einer Sprungfunktion[154]:94; das bedeutet, dass die Erwärmung nach etwa 10 Jahren ihr Maximum erreicht und dann für sehr lange Zeiträume dort verharrt.[157]
Der Climate Action Tracker gibt die wahrscheinlichste, bis zum Ende dieses Jahrhunderts zu erwartende Erderwärmung an. Demnach ist die Welt aktuell (2016) auf dem Weg zu einer Erwärmung um 3,6 °C im Vergleich zur vorindustriellen globalen Durchschnittstemperatur. Zur Berechnung dieses Wertes werden die Selbstverpflichtungen der wichtigsten Emittenten, die Treibhausgasemissionen zu verringern, in ein Klimamodell eingespeist.[158]
Nach einer im Jahr 2009 erschienenen Studie wird die gegenwärtig bereits angestoßene Erwärmung noch für mindestens 1000 Jahre irreversibel sein, selbst wenn heute alle Treibhausgasemissionen vollständig gestoppt würden.[159] In weiteren Szenarien wurden die Emissionen schrittweise bis zum Ende unseres Jahrhunderts fortgesetzt und dann ebenfalls abrupt beendet. Dabei wurden wesentliche Annahmen und Aussagen, die im 4. IPCC-Bericht über die folgenden 1000 Jahre gemacht wurden,[33][160] bestätigt und verfeinert. Langfristige Klimasimulationen deuten darauf hin, dass sich die von einer erhöhten Kohlenstoffdioxidkonzentration aufgeheizte Erde nur um ca. ein Grad pro 12.000 Jahre abkühlen wird.[161]
Ein komplettes Verbrennen der fossilen Energieressourcen, die konservativ auf 5 Billionen Tonnen Kohlenstoff geschätzt werden, würde hingegen zu einem weltweiten Temperaturanstieg von ca. 6,4 bis 9,5 °C führen, was sehr starke negative Auswirkungen auf Ökosysteme, menschliche Gesundheit, Landwirtschaft, die Wirtschaft usw. hätte.[162] Würden neben konventionellen auch unkonventionelle Ressourcen verbrannt, könnte die Kohlendioxidkonzentration in der Erdatmosphäre bis auf ca. 5000 ppm bis zum Jahr 2400 ansteigen.[163] Neben einer enormen Temperaturerhöhung würde hierbei der Antarktische Eisschild fast vollständig abschmelzen, womit der Meeresspiegel auch ohne Einberechnung des grönländischen Eisschildes um ca. 58 m steigen würde.[164]
2019 prognostizierte das an der ETH Zürich angesiedelte Crowther Lab die Temperaturen in 520 Metropolen weltweit für das Jahr 2050. Für 22 % der Städte werden klimatische Bedingungen prognostiziert, wie sie derzeit in keiner Stadt der Welt herrschen. Den anderen werden Bedingungen prognostiziert, die einer anderen Stadt derzeit entsprechen. Wien soll beispielsweise ein ähnliches Klima wie Skopje bekommen, Hamburg wie San Marino, Berlin und Paris wie Canberra in Australien, London wie Melbourne, Athen und Madrid wie Fès in Marokko, Nairobi soll ein ähnliches Klima bekommen wie Maputo. New York soll ein Klima bekommen wie Virginia Beach, Virginia Beach wiederum wie Podgorica, Seattle wie San Francisco, Toronto wie Washington D.C., Washington D.C. wie Nashville.[165][166][167]
Im Jahr 1824 entdeckte Jean Baptiste Joseph Fourier den Treibhauseffekt. Eunice Newton Foote untersuchte als erste experimentell die Wirkung von Sonnenbestrahlung auf luftdicht verschlossene Glasröhren, die mit verschiedenen Gasen gefüllt waren. Sie wies die Absorption von Wärmestrahlung durch Kohlenstoffdioxid und Wasserdampf nach, erkannte darin eine mögliche Ursache für Klimawandel-Ereignisse und veröffentlichte ihre Ergebnisse 1856. Dies wurde erst 2010 bekannt; John Tyndall gelang es 1859, konkret die Absorption der von der Erdoberfläche ausgehenden langwelligen Infrarotstrahlung durch Treibhausgase nachzuweisen;[168] er bestimmte die relative Bedeutung von Wasserdampf gegenüber Kohlenstoffdioxid und Methan für den natürlichen Treibhauseffekt. An Tyndall anknüpfend veröffentlichte Svante Arrhenius[169] 1896 die Hypothese, dass die anthropogene CO2-Anreicherung in der Atmosphäre die Erdtemperatur erhöhen könne.[170] Damals begann die „Wissenschaft von der globalen Erwärmung“ im engeren Sinne.
Im Jahr 1908 publizierte der britische Meteorologe und spätere Präsident der Royal Meteorological Society Ernest Gold (1881–1976) einen Aufsatz zur Stratosphäre.[171] Er schrieb darin, dass die Temperatur der Tropopause mit steigender CO2-Konzentration steigt. Dies ist ein Kennzeichen der globalen Erwärmung, das fast ein Jahrhundert später auch gemessen werden konnte.[172]
In den späten 1950er Jahren wurde erstmals nachgewiesen, dass der Kohlenstoffdioxidgehalt der Atmosphäre ansteigt: Auf Initiative von Roger Revelle startete Charles David Keeling 1958 auf dem Berg Mauna Loa (Hawaii, Big Island) regelmäßige Messungen des CO2-Gehalts der Atmosphäre (Keeling-Kurve). Gilbert Plass nutzte 1956 erstmals Computer und erheblich genauere Absorptionsspektren des CO2 zur Berechnung der zu erwartenden Erwärmung. Er erhielt 3,6 K (3,6 °C) als Wert für die Klimasensitivität.[173]
Die ersten Computerprogramme zur Modellierung des Weltklimas wurden Ende der 1960er Jahre geschrieben.
1979 schrieb die National Academy of Sciences der USA im "Charney-Report", dass ein Anstieg der Kohlenstoffdioxidkonzentration ohne Zweifel mit einer signifikanten Klimaerwärmung verknüpft sei; deutliche Effekte seien aufgrund der Trägheit des Klimasystems jedoch erst in einigen Jahrzehnten zu erwarten.[174]
Der US-Klimaforscher James E. Hansen sagte am 23. Juni 1988 vor dem Energy and Natural Resources Committee des US-Senats, er sei zu 99 Prozent davon überzeugt, dass die jeweilige Jahresrekordtemperatur nicht das Resultat natürlicher Schwankungen sei. Dies gilt als die erste derartige Äußerung eines Wissenschaftlers vor einem politischen Gremium.[175] Bereits in dieser Sitzung wurden Forderungen nach politischen Maßnahmen gestellt, um die globale Erwärmung zu verlangsamen.[176] Im November 1988 wurde der Weltklimarat (IPCC) gegründet, der den politischen Entscheidungsträgern und Regierungen zuarbeiten soll: Hier wird der wissenschaftliche Erkenntnisstand zur globalen Erwärmung und zum anthropogenen Anteil daran diskutiert, abgestimmt und in Berichten zusammengefasst.
Die Erforschung von Ursachen und Folgen der globalen Erwärmung ist seit ihrem Beginn eng mit der Analyse der klimatischen Bedingungen vergangener Zeiten verknüpft. Svante Arrhenius, der als Erster darauf hinwies, dass der Mensch durch die Emission von CO2 die Erde erwärmt, erkannte bei der Suche nach den Ursachen der Eiszeiten den klimatischen Einfluss wechselnder Konzentrationen von Kohlenstoffdioxid in der Erdatmosphäre.[177]
So wie Erdbeben und Vulkanausbrüche sind auch Klimawandel etwas Natürliches. Seit der Entstehung der Erde hat sich das irdische Klima ständig verändert, und es wird sich auch künftig ändern. In erster Linie verantwortlich dafür waren eine wechselnde Konzentration und Zusammensetzung der Treibhausgase in der Atmosphäre durch die unterschiedliche Intensität von Vulkanismus und Erosion. Weitere klimawirksame Faktoren sind die variable Sonneneinstrahlung, unter anderem auf Grund der Milanković-Zyklen, sowie eine durch die Plattentektonik verursachte permanente Umgestaltung und Verschiebung der Kontinente[178] mit einer daraus resultierenden Verlagerung großer Meeresströmungen. Landmassen an den Polen förderten die Bildung von Eiskappen, und veränderte ozeanische Strömungen lenkten Wärme entweder von den Polen weg oder zu diesen hin und beeinflussten auf diese Weise die Stärke der sehr mächtigen Eis-Albedo-Rückkopplung.[179]
Obwohl Leuchtkraft und Strahlungsleistung der Sonne am Beginn der Erdgeschichte etwa 30 Prozent unter den heutigen Werten lagen, herrschten in der gesamten Zeit Bedingungen, unter denen flüssiges Wasser existieren konnte. Dieses Paradoxon der schwachen jungen Sonne genannte Phänomen führte in den 1980er Jahren zur Hypothese eines „CO2-Thermostats“: Es hielt die Temperaturen der Erde über Jahrmilliarden konstant in Bereichen, die Leben auf unserem Planeten ermöglichten. Wenn Vulkane vermehrt CO2 ausstießen, so dass die Temperaturen anstiegen, erhöhte sich der Grad der Verwitterung, wodurch mehr CO2 gebunden wurde. War die Erde kalt und die Konzentration des Treibhausgases gering, wurde die Verwitterung durch die Vereisung weiter Landflächen stark verringert.[180] Das durch den Vulkanismus weiter in die Atmosphäre strömende Treibhausgas reicherte sich dort bis zu einem gewissen Kipppunkt an, um schließlich ein globales Tauwetter auszulösen. Der Nachteil dieses Mechanismus besteht darin, dass er mehrere Jahrtausende für die Korrektur von Treibhausgaskonzentrationen und Temperaturen benötigt, und es sind mehrere Fälle bekannt, bei denen er versagte.
Man nimmt an, dass die große Sauerstoffkatastrophe vor 2,3 Milliarden Jahren einen Zusammenbruch der Methankonzentration in der Atmosphäre bewirkte. Dies verminderte den Treibhauseffekt so stark, dass daraus eine großflächige und lang andauernde Vereisung der Erde während der Huronischen Eiszeit resultierte. Im Verlauf – vermutlich mehrerer – Schneeball-Erde-Ereignisse während des Neoproterozoikums vor rund 750 bis 635 Millionen Jahren fror die Erdoberfläche erneut fast vollkommen zu.
Das letzte derartige Ereignis fand unmittelbar vor der kambrischen Explosion vor 640 Millionen Jahren statt und wird Marinoische Eiszeit genannt. Die helle Oberfläche der fast vollständig gefrorenen Erde reflektierte nahezu die gesamte einfallende Sonnenenergie zurück ins All und hielt die Erde so im Eiszeitzustand gefangen; dies änderte sich erst, als die Konzentration von Kohlenstoffdioxid in der Erdatmosphäre, bedingt durch den unter dem Eis fortdauernden Vulkanismus, auf extrem hohe Werte gestiegen war. Da das CO2-Thermostat auf Veränderungen nur träge reagiert, taute die Erde nicht nur auf, sondern stürzte in der Folge für einige Jahrzehntausende in das andere Extrem eines Supertreibhauses.[181] Das Ausmaß der Vereisung ist jedoch in der Wissenschaft umstritten, weil Klimadaten aus dieser Zeit ungenau und lückenhaft sind. Nach neueren Untersuchungen trat eine ähnliche Konstellation am Karbon-Perm-Übergang vor etwa 300 Millionen Jahren ein, als sich die atmosphärische Kohlenstoffdioxid-Konzentration auf ein Minimum von wahrscheinlich 100 ppm verringerte. Dadurch rückte das Erdklimasystem in die unmittelbare Nähe jenes Kipppunkts, der den Planeten in den Klimazustand einer globalen Vereisung überführt hätte.[182]
Hingegen war die Erde zur Zeit des wahrscheinlich größten Massenaussterbens vor 252 Millionen Jahren ein Supertreibhaus mit sehr viel höheren Temperaturen als heute.[183] Diese drastische Temperaturerhöhung, die an der Perm-Trias-Grenze fast alles Leben auf der Erde auslöschte, wurde sehr wahrscheinlich von einer lang andauernden intensiven Vulkantätigkeit verursacht, die zur Entstehung des sibirischen Trapps führte. Aktuelle Isotopenuntersuchungen deuten darauf hin, dass sich die damaligen Meere innerhalb eines relativ kurzen Zeitraums um bis zu 8 K erwärmten und parallel dazu stark versauerten.[184] Während dieser und anderer Phasen extrem hoher Temperaturen enthielten die Ozeane zu großen Teilen keinen Sauerstoff. Derartige ozeanische anoxische Ereignisse wiederholten sich in der Erdgeschichte mehrfach. Man weiß heute, dass sowohl Phasen starker Abkühlung, wie beispielsweise während der Grande Coupure, als auch rapide Erwärmungen von Massenaussterben begleitet wurden.[183][184][185] Der Paläontologe Peter Ward behauptet sogar, dass alle bekannten Massenaussterben der Erdgeschichte mit Ausnahme des KT-Impakts durch Klimakrisen ausgelöst wurden.[186]
Das Klima der letzten 10.000 Jahre war im Vergleich zu den häufigen und starken Schwankungen der vorangegangenen Jahrtausende ungewöhnlich stabil. Diese Stabilität gilt als Grundvoraussetzung für die Entwicklung und den Fortbestand der menschlichen Zivilisation.[187][16] Zuletzt kam es während des Paläozän/Eozän-Temperaturmaximums und beim Eocene Thermal Maximum 2 zu einer schnellen und starken globalen Erwärmung, die von einem massiven Eintrag von Kohlenstoff (CO2 und/oder Methan) in die Atmosphäre verursacht wurde. Diese Epochen sind daher Gegenstand intensiver Forschungen, um daraus Erkenntnisse über mögliche Auswirkungen der laufenden menschengemachten Erwärmung zu gewinnen.[185]
Der laufende und für die kommenden Jahre erwartete Klimawandel hat möglicherweise das Ausmaß großer Klimaveränderungen der Erdgeschichte, die vorhergesagte kommende Temperaturänderung läuft aber mindestens um einen Faktor 20 schneller ab als in allen globalen Klimawandeln der letzten 65 Millionen Jahre.[9][188] Betrachtet man die Geschwindigkeit der Erwärmungsphasen von Eiszeiten zu Zwischeneiszeiten, wie sie in den letzten ca. 500.000 Jahren fünfmal vorkamen, so kam es dort jeweils zu Phasen der schnellen Erwärmung. Diese Phasen dauerten jeweils ca. 10.000 Jahre an und waren durch einen Anstieg von insgesamt ca. 4 bis 5 °C gekennzeichnet. Bei der derzeitigen menschengemachten Erwärmung wurde der Anstieg, ohne erhebliche Maßnahmen zum Klimaschutz, ebenfalls mit ca. 4 bis 5 °C berechnet – nur dass dieser Prozess in 100 statt 10.000 Jahren abläuft.[189]
Anhand der bald zweihundert Jahre umfassenden Datenlage und Forschung ist davon auszugehen, dass die Epoche des Pliozäns ein analoges Beispiel für die nähere Zukunft unseres Planeten sein kann. Der Kohlenstoffdioxid-Gehalt der Atmosphäre im mittleren Pliozän wurde mit Hilfe der Isotopenuntersuchung von Δ13C ermittelt und lag damals im Bereich von 400 ppm, das entspricht der Konzentration des Jahres 2015.[190][191] Mit Hilfe von Klimaproxies sind Temperatur und Meeresspiegel der Zeit vor 5 Millionen Jahren rekonstruierbar. Zum Beginn des Pliozäns lag die globale Durchschnittstemperatur um 2 K höher als im Holozän; die globale Jahresdurchschnittstemperatur reagiert aufgrund der enormen Wärmekapazität der Weltmeere sehr träge auf Änderungen des Strahlungsantriebs und so ist sie seit Beginn der industriellen Revolution erst um ca. 1 K angestiegen.
Die Erwärmung führt unter anderem zu einem Meeresspiegelanstieg. Der Meeresspiegel lag in der Mitte des Pliozäns um rund 20 Meter höher als heute.[192]
Der Intergovernmental Panel on Climate Change (IPCC) wurde 1988 vom Umweltprogramm der Vereinten Nationen (UNEP) gemeinsam mit der Weltorganisation für Meteorologie (WMO) eingerichtet und ist der 1992 abgeschlossenen Klimarahmenkonvention beigeordnet. Der IPCC fasst für seine im Abstand von etwa sechs Jahren erscheinenden Berichte die weltweiten Forschungsergebnisse auf dem Gebiet der Klimaveränderung zusammen und bildet damit den aktuellen Stand des Wissens in der Klimatologie ab.
Die Organisation wurde 2007, gemeinsam mit dem ehemaligen US-Vizepräsidenten Al Gore, mit dem Friedensnobelpreis ausgezeichnet. Der Fünfte Sachstandsbericht ist im September 2013 erschienen.
Seit der Entdeckung des Treibhauseffektes in der Atmosphäre 1824 durch Jean Baptiste Joseph Fourier und der Beschreibung der Treibhauswirkung von Wasserdampf und Kohlenstoffdioxid 1862 durch John Tyndall ist die wissenschaftliche Erforschung des Erd-Klimasystems immer präziser geworden.[33] Inzwischen existiert eine "erdrückend[e] Beweislage", dass die globale Erwärmung real ist, menschengemacht und eine große Bedrohung darstellt.[193]
Seit 150 Jahren ist die wärmende Wirkung von Treibhausgasen bekannt, deren Konzentrationsanstieg in der Erdatmosphäre dann Mitte der 50er Jahre des vorigen Jahrhunderts sicher nachgewiesen werden konnte. Die seit Mitte der 1970er Jahre festgestellte, ausgeprägte und bis heute ununterbrochene Klimaerwärmung kann mit Hilfe der seitdem deutlich verbesserten Messtechnik nicht primär auf solare Einflüsse oder andere natürliche Faktoren zurückgeführt werden, da sich diese seit dieser Zeit nur minimal veränderten. Grundlegende Forschungen zur Auswirkung der Treibhausgase stammen vom Ozeanographen Veerabhadran Ramanathan aus der Mitte der 1970er Jahre.[194]
Mehrere Hunderttausend klimatologischer Studien[195] wurden seitdem veröffentlicht, von denen die große Mehrheit (etwa 97 %)[196] den wissenschaftlichen Konsens zum Klimawandel stützt. Projektionen und Berechnungen, die vor Jahrzehnten getätigt wurden, streuten noch recht groß, haben insgesamt den Trend aber überraschend gut getroffen.[197][198][199][26] Werden die Modelle mit aktuelleren Messungen gefüttert, vor allem der Strahlungsbilanz zwischen oberer Atmosphäre und dem Weltraum, dann sinkt die Streuung zwischen den Modellen und der Mittelwert für die Erwärmung zum Ende des Jahrhunderts steigt etwas.[200]
Man unterscheidet in der Klimaforschung zwischen Trend und Zeitpunkt und berechnet dafür die Eintrittswahrscheinlichkeiten. Im Themenumfeld der globalen Erwärmung ist beispielsweise Folgendes nicht genau bekannt: Mehrere Ereignis-Zeitpunkte, darunter der Zeitpunkt, an dem die Arktis im 21. Jahrhundert im Sommer eisfrei sein wird; Der exakte Meeresspiegelanstieg bis zum Ende des 21. Jahrhunderts ist ebenfalls nicht bekannt. Unsicherheiten bestehen in der genauen Art, Form, dem Ort und der Verteilung von globalen Kipppunkten im Klimasystem und damit auch verbunden in der Kenntnis der genauen regionalen Auswirkungen der globalen Erwärmung. Die Mehrzahl der relevanten wissenschaftlichen Grundlagen gilt hingegen als sehr gut verstanden.[201]
Der Themenkomplex der globalen Erwärmung war zunächst Gegenstand kontroverser Diskussionen mit wechselnden Schwerpunkten. Anfang des 20. Jahrhunderts überwog die Unsicherheit, ob die theoretisch vorhergesagte Erwärmung messtechnisch überhaupt nachweisbar sein würde. Als in den USA während der 1930er Jahre erstmals ein signifikanter Temperaturanstieg in einigen Regionen registriert wurde, galt dies zwar als ein starkes Indiz für eine zunehmende Erderwärmung, gleichzeitig wurde jedoch bezweifelt, ob dieser Prozess tatsächlich auf menschlichen Einflüssen beruhte. Diese Zweifel werden von manchen vorgeblich klimaskeptischen Gruppierungen bis heute geäußert, und gelegentlich wird sogar in den Medien eine globale Abkühlung für die kommenden Jahrzehnte vorausgesagt, was von Klimaforschern zurückgewiesen wird.[202]
Heute herrscht unter Fachwissenschaftlern ein Konsens bezüglich der menschengemachten globalen Erwärmung[21][203][204], der seit spätestens Anfang der 1990er Jahre besteht.[20][205] Andere Quellen datieren die Schaffung des wissenschaftlichen Konsens bereits in die 1980er Jahre. So hielt z. B. der 1988 publizierte Zwischenbericht der Enquete-Kommission Vorsorge zum Schutz der Erdatmosphäre fest, dass schon auf der Klimakonferenz von Villach 1985 ein Konsens über Existenz und menschliche Ursache des Klimawandels erzielt worden sei:
„In Villach (Österreich, 1985) waren sich die Wissenschaftler aus aller Welt erstmals darin einig, daß sich die globale Durchschnittstemperatur in Erdbodennähe erhöhen wird. Konsensfähig war auch, daß die durch Menschen verursachte Zunahme der Konzentrationen klimarelevanter Treibhausgase in der Atmosphäre, vor allem der von Kohlendioxid (CO2), Methan (CH4), troposphärischem Ozon, Distickstoffoxid (N2O) und der Fluorchlorkohlenwasserstoffe (FCKW), zur Temperaturerhöhung führt.“
Der in den IPCC-Berichten zum Ausdruck gebrachte wissenschaftliche Konsens wird von den nationalen und internationalen Wissenschaftsakademien und allen G8-Ländern ausdrücklich geteilt.[28][207][208][209][210]
Der wissenschaftliche Konsens zum Klimawandel besteht in der Feststellung, dass sich das Erd-Klimasystem erwärmt und weiter erwärmen wird. Dies wird anhand von Beobachtungen der steigenden Durchschnittstemperatur der Luft und Ozeane, großflächigem Abschmelzen von Schnee- und Eisflächen und dem Meeresspiegelanstieg ermittelt. Mit mindestens 95-prozentiger Sicherheit wird dies hauptsächlich durch Treibhausgase (Verbrennung von fossilen Energieträgern, Methanausstoß bei der Viehhaltung, Freisetzung von CO2 bei der Zementherstellung,) sowie durch die Rodungen von Waldgebieten verursacht.[211][212] Die American Association for the Advancement of Science – die weltweit größte wissenschaftliche Gesellschaft – stellt dar, dass sich 97 % aller Klimatologen darüber einig sind, dass ein vom Menschen verursachter Klimawandel stattfindet, und betont den zu vielen Aspekten der Klimatologie herrschenden Konsens.[213] Spätestens seit der Jahrtausendwende wird der Wissensstand um die mit dem Klimawandel verbundenen Folgen als ausreichend sicher angesehen, um umfangreiche Klimaschutzmaßnahmen zu rechtfertigen.[207]
Laut einer 2014 veröffentlichten Studie bestand unter der Annahme keines anthropogenen Treibhauseffekts nur eine Wahrscheinlichkeit von 0,001 % für das tatsächlich eingetretene Ereignis von mindestens 304 Monaten in Folge (von März 1985 bis zum Stand der Analyse Juni 2010) mit einem Monatsmittel der globalen Temperatur über dem Mittelwert für das 20. Jahrhundert.[214]
Obwohl innerhalb der Wissenschaft seit Jahrzehnten ein starker Konsens hinsichtlich der menschengemachten globalen Erwärmung herrscht, lehnen Teile der Öffentlichkeit sowie eine Vielzahl politischer und wirtschaftlicher Akteure bis heute weiterhin die Existenz des Klimawandels, seine menschliche Ursache, die damit einhergehenden negativen Folgen oder den wissenschaftlichen Konsens darüber ab.[215] Bei der Leugnung des menschengemachten Klimawandels handelt es sich um eine Form von Pseudowissenschaft, die Ähnlichkeiten aufweist mit weiteren Formen der Wissenschaftsleugnung wie beispielsweise dem Bestreiten der Evolutionstheorie oder der gesundheitsschädlichen Auswirkungen des Rauchens bis hin zum Glauben an Verschwörungstheorien. Zum Teil bestehen zwischen diesen genannten Formen der Leugnung wissenschaftlicher Erkenntnisse personelle, organisatorische und ökonomische Verbindungen. Ein zentrales Verbindungsmuster ist unter anderem die beständige Fabrizierung künstlicher Kontroversen wie der vermeintlichen Kontroverse um die globale Erwärmung[216], bei der es sich, entgegen der Annahme in der Öffentlichkeit, nicht um eine wissenschaftliche Diskussion handelt, sondern vielmehr um die bewusste Verbreitung von Falschbehauptungen durch Klimaleugner.[217] Die Verleugnung der Klimaforschung gilt als die „mit Abstand am stärksten koordinierte und finanzierte Form der Wissenschaftsleugnung“ und stellt zugleich das Rückgrat der Anti-Umweltbewegung und ihrer Gegnerschaft gegen die Umweltforschung dar.[215]
Deutlich ausgeprägt ist die Ablehnung des wissenschaftlichen Konsenses insbesondere in Staaten, in denen mit großem finanziellen Einsatz durch Unternehmen, v. a. aus der Branche der fossilen Energien, eine einflussreiche Kontrabewegung geschaffen wurde, deren Ziel es ist, die Existenz des wissenschaftlichen Konsenses durch bewusstes Säen von Zweifeln zu untergraben. Besonders erfolgreich waren diese Aktionen unter konservativen Bevölkerungsteilen in den USA.[218] Eine wichtige Rolle bei der Verschleierung des Standes der Wissenschaft spielen konservative Denkfabriken.[219]
Zu den wichtigsten Kräften der organisierten Klimaleugnerbewegung, die die Existenz der menschengemachten globalen Erwärmung durch gezielte Attacken auf die Klimaforschung abstreiten, zählen das Cato Institute, das Competitive Enterprise Institute, das George C. Marshall Institute sowie das Heartland Institute, allesamt konservativ ausgerichtete Think Tanks. Ihr Ziel war und ist es, mittels der Strategie Fear, Uncertainty and Doubt in der Bevölkerung Unsicherheit und Zweifel an der Existenz der Globalen Erwärmung zu schaffen, um anschließend zu argumentieren, dass es nicht genügend Belege dafür gebe, konkrete Klimaschutzmaßnahmen zu ergreifen.[220][221] Insgesamt stehen der US-Klima-Contrarian-Bewegung rund 900 Millionen Dollar pro Jahr für Kampagnenzwecke zur Verfügung. Die überwältigende Mehrheit der Mittel stammt von politisch konservativen Organisationen, wobei die Finanzierung zunehmend über Donors-Trust-Organisationen verschleiert wird.[222] Die Mehrheit der Literatur, die dem menschengemachten Klimawandel widerspricht, wurde ohne Peer-Review publiziert, ist üblicherweise pseudowissenschaftlicher Natur (d. h. wirkt äußerlich wissenschaftlich, ohne aber wissenschaftliche Qualitätsstandards zu erfüllen), wurde zum großen Teil von Organisationen und Unternehmen finanziert, die von der Nutzung fossiler Energieträger profitieren, und steht in Verbindung mit konservativen Think Tanks.[223]
Wegen der Auswirkungen auf menschliche Sicherheit, Gesundheit, Wirtschaft und Umwelt ist die globale Erwärmung mit Risiken behaftet. Diese Risiken werden mit zunehmender Erwärmung stärker und sind bei 2 Grad Erwärmung höher als bei einer Begrenzung der Erderwärmung auf 1,5 Grad. Negative Auswirkungen der globalen Erwärmung treten bereits heute auf und haben u. a. bereits viele Ökosysteme an Land und im Wasser beeinträchtigt.[224] Einige schon heute wahrnehmbare Veränderungen wie die verringerte Schneebedeckung, der steigende Meeresspiegel oder die Gletscherschmelze gelten neben den Temperaturmessungen auch als Belege für den Klimawandel. Konsequenzen der globalen Erwärmung wirken sowohl direkt auf den Menschen als auch auf Ökosysteme. Dazu verstärkt der Klimawandel viele andere gravierende Probleme wie z. B. den Artenschwund oder die Bodendegradation, sodass die Bekämpfung des Klimawandels zugleich eine Schlüsselmaßnahme für das Lösen anderer dringender Probleme auf dem Weg hin zu einer nachhaltigen Lebensweise ist.[225]
Wissenschaftler projizieren verschiedene direkte und indirekte Auswirkungen auf Hydrosphäre, Atmosphäre und Biosphäre. Im Bericht des Weltklimarats (IPCC) werden diesen Projektionen jeweils Wahrscheinlichkeiten zugeordnet. Zu den Folgen zählen Hitzewellen, besonders in den Tropen, ein Hunderte Millionen Menschen betreffender Anstieg des Meeresspiegels und Missernten, welche die globale Ernährungssicherheit gefährden. Eine sich stark erwärmende Welt ist, so ein Weltbank-Bericht, mit erheblichen Beeinträchtigungen für den Menschen verbunden.[226]
Man unterscheidet mindestens zwei Arten unerwarteter Effekte: Kombinierte Effekte, bei denen mehrere Extremereignisse zusammen wirken und ihre Wirkung gegenseitig verstärken (beispielsweise Dürren und Großbrände), und Kippelemente. Bedingt durch die vielfachen Rückkopplungen im Erdsystem reagiert dieses auf Einflüsse oftmals nichtlinear, das heißt, Veränderungen vollziehen sich in diesen Fällen nicht kontinuierlich, sondern sprunghaft. Es gibt eine Reihe von Kippelementen, die bei fortschreitender Erwärmung wahrscheinlich abrupt einen neuen Zustand einnehmen werden, der ab einem gewissen Punkt (Tipping Point) schwer oder gar nicht umkehrbar sein wird. Beispiele für Kippelemente sind das Abschmelzen der arktischen Eisdecke oder eine Verlangsamung der thermohalinen Zirkulation.[228][229]
Andere Beispiele für abrupte Ereignisse sind das plötzliche Aussterben einer Art, die – womöglich durch andere Umweltfaktoren vorbelastet – durch ein klimatisches Extremereignis eliminiert wird, oder die Wirkung steigender Meeresspiegel. Diese führen nicht unmittelbar zu Überschwemmungen, sondern erst wenn im Rahmen von z. B. Sturmfluten ein vormals ausreichender Damm überschwemmt wird. Auch der Meeresspiegelanstieg selbst kann sich durch nichtlineare Effekte in sehr kurzer Zeit rasch beschleunigen, wie dies in der Klimageschichte beispielsweise beim Schmelzwasserpuls 1A der Fall war.[230]
Untersuchungen von klimatischen Veränderungen in der Erdgeschichte zeigen, dass Klimawandel in der Vergangenheit nicht nur graduell und langsam abliefen, sondern bisweilen sehr rasch. So war am Ende der jüngeren Dryas und während der Dansgaard-Oeschger-Ereignisse in der letzten Kaltzeit regional eine Erwärmung um 8 °C in etwa 10 Jahren zu beobachten. Nach heutigem Kenntnisstand erscheint es wahrscheinlich, dass diese schnellen Sprünge im Klimasystem auch künftig stattfinden werden, wenn bestimmte Kipppunkte überschritten werden.[231] Da die Möglichkeit, das Klima in Klimamodellen abzubilden, nie vollständig der Realität entsprechen wird, das Klimasystem aufgrund seiner chaotischen Natur grundsätzlich nicht im Detail vorhersagbar ist und sich die Welt überdies zunehmend außerhalb des Bereichs bewegt, für den verlässliche Klimadaten der Vergangenheit vorliegen, können weder Art, Ausmaß noch Zeitpunkt solcher Ereignisse vorhergesagt werden.[232][231]
Jedoch berechneten Will Steffen und andere im Jahr 2018 wahrscheinliche Temperaturbereiche der Erderwärmung, in denen kritische Schwellen für Kippelemente erreicht werden können, so dass „diese in fundamental andersartige Zustände versetzt werden.“ Durch Rückkopplungen könnten weitere Kippelemente ausgelöst werden, deren Veränderung erst für höhere Temperaturbereiche zu erwarten sei. So werde die thermohaline Zirkulation durch ein schon bei einer Erderwärmung zwischen 1 und 3 Grad mögliches starkes Abschmelzen des Grönlandeises beeinflusst. Ihr Zusammenbruch ist wiederum rückgekoppelt mit der El Niño-Southern Oscillation, dem teilweisen Absterben des Amazonas-Regenwaldes[233] und dem Abschmelzen von antarktischem Meer-, später Festlandeis. Schon bei Einhalten des Klimaziels von 2 Grad globaler Erwärmung drohe daher das Risiko eines Dominoeffekts, einer Kaskade, die das Klima unkontrollierbar und irreversibel in ein Warmklima führen würde, mit langfristig etwa 4 bis 5 Grad höheren Temperaturen und einem Meeresspiegelanstieg um 10 bis 60 Meter.[23]
Die Risiken für Ökosysteme auf einer sich erwärmenden Erde wachsen mit jedem Grad des Temperaturanstiegs. Die Risiken unterhalb einer Erwärmung von 1 K gegenüber dem vorindustriellen Wert sind vergleichsweise gering. Zwischen 1 und 2 K Erwärmung liegen auf regionaler Ebene mitunter substanzielle Risiken vor. Eine Erwärmung oberhalb von 2 K birgt erhöhte Risiken für das Aussterben zahlreicher Tier- und Pflanzenarten, deren Lebensräume nicht länger ihren Anforderungen entsprechen.[234] Beispielsweise geht der IPCC davon aus, dass die weltweiten Korallenriffe bei einer Erwärmung von 1,5 Grad um 70-90 % zurückgehen werden. Bei 2 Grad Erwärmung rechnet der IPCC mit einem Rückgang um mehr als 99 % und damit einem nahezu vollständigen Verschwinden der Korallenriffe.[235] Bei über 2 K Temperaturanstieg drohen der Kollaps von Ökosystemen und signifikante Auswirkungen auf Wasser sowie Nahrungsmittelvorräte durch Ernteausfall.[236]
Das Weltwirtschaftsforum Davos stuft in seinem Bericht Global Risks 2013 den Klimawandel als eines der wichtigsten globalen Risiken ein: Das Wechselspiel zwischen der Belastung der wirtschaftlichen und ökologischen Systeme werde unvorhersehbare Herausforderungen für globale und nationale Widerstandsfähigkeiten darstellen.[260][261]
Verschiedene Militärstrategen und Sicherheitsexperten befürchten geopolitische Verwerfungen infolge von Klimaveränderungen, die sicherheitspolitische Risiken für die Stabilität der Weltordnung[262][263][264] und den „Weltfrieden“ bergen,[265] auch der UN-Sicherheitsrat gab 2011 auf Initiative Deutschlands eine entsprechende Erklärung ab.[266] Der ehemalige deutsche Außenminister Frank-Walter Steinmeier bewertete im April 2015 nach Erscheinen einer zum „G7“-Außenminister-Treffen in Lübeck verfassten europäischen Studie den Klimawandel ebenfalls als „eine wachsende Herausforderung für Frieden und Stabilität“. Die Studie empfiehlt u. a. die Einrichtung einer G7-Taskforce.[267][268]
Die wirtschaftlichen Folgen der globalen Klimaerwärmung sind nach gegenwärtigen Schätzungen beträchtlich: Das Deutsche Institut für Wirtschaftsforschung schätzte 2004/5, dass ohne zügig umgesetzten Klimaschutz der Klimawandel bis zum Jahr 2050 bis zu 200.000 Milliarden US-Dollar volkswirtschaftliche Kosten verursachen könnte (wobei diese Schätzung mit großen Unsicherheiten behaftet ist).[269] Der Stern-Report (er wurde Mitte 2005 von der damaligen britischen Regierung in Auftrag gegeben) schätzte die durch den Klimawandel bis zum Jahr 2100 zu erwartenden Schäden auf 5 bis 20 Prozent der globalen Wirtschaftsleistung.
Nach einem im Vorfeld der im November 2017 in Bonn stattfindenden 23. UN-Klimakonferenz („COP 23“) veröffentlichten Lancet-Report hat sich die Zahl der wetterbedingten Naturkatastrophen seit 2000 um 46 % erhöht; allein 2016 sei dadurch ein ökonomischer Schaden von 126 Mrd. Dollar entstanden.[270]
Siehe auch „Klimafinanzierung“, Klimaversicherung, Loss and Damage, Unternehmerische Klimarisiken
Um die Erdtemperatur zu stabilisieren und die Folgen der globalen Erwärmung zu begrenzen, muss der Treibhausgasausstoß weltweit auf Netto-Null begrenzt werden, da für jedes Temperaturziel nur ein gewisses globales CO2-Budget zur Verfügung steht.[271][22] Im Umkehrschluss bedeutet dies, dass die Erderwärmung so lange weiter fortschreitet, wie Treibhausgase emittiert werden und die Gesamtmenge an Treibhausgasen in der Atmosphäre steigt. Emissionen nur zu reduzieren führt also nicht zum Stopp, sondern nur zur Verlangsamung der globalen Erwärmung.[272]
Treibhausgase reichern sich gleichmäßig in der Atmosphäre an, ihre Wirkung hängt nicht davon ab, wo sie ausgestoßen werden. Eine Minderung von Treibhausgasemissionen kommt somit allen zugute; sie ist aber oft für denjenigen, der seine Treibhausgasemissionen mindert, mit Anstrengungen und Kosten verbunden. Die Reduktion der weltweiten Emissionen auf Netto-Null steht damit vor dem sogenannten Trittbrettfahrerproblem: Vorwiegend am Eigennutz orientierte Akteure wollen zwar eine Stabilisierung des Klimas und dementsprechende Klimaschutzanstrengungen anderer, sehen aber keine ausreichenden Anreize für eigene Klimaschutzanstrengungen. Die internationale Klimapolitik steht vor der Aufgabe, einen globalen Ordnungsrahmen zu schaffen, der Kollektives Handeln hin zu Klimaneutralität bewirkt.[273][274]
Als Herzstück internationaler Klimapolitik gilt die Klimarahmenkonvention (UNFCCC) der Vereinten Nationen als der völkerrechtlich verbindlichen Regelung zum Klimaschutz.[275] Sie wurde 1992 in New York City verabschiedet und im gleichen Jahr auf der UN-Konferenz für Umwelt und Entwicklung (UNCED) in Rio de Janeiro von den meisten Staaten unterschrieben. Ihr Kernziel ist es, eine gefährliche Störung des Klimasystems infolge menschlicher Aktivität zu vermeiden. Mit der Rahmenkonvention geht als neu entstandenes Prinzip der Staatengemeinschaft einher, dass auf eine solche massive Bedrohung der globalen Umwelt auch ohne genaue Kenntnis des letztlichen tatsächlichen Ausmaßes reagiert werden soll. Auf der Rio-Konferenz wurde auch die Agenda 21 verabschiedet, die seitdem Grundlage für viele lokale Schutzmaßnahmen ist.
Die 197 Vertragspartner der Rahmenkonvention (Stand März 2020[276]) treffen sich jährlich zu UN-Klimakonferenzen. Die bekanntesten dieser Konferenzen waren 1997 im japanischen Kyōto, die als Ergebnis das Kyoto-Protokoll hervorbrachte, 2009 in Kopenhagen und 2015 in Paris. Dort wurde von allen Vertragsstaaten vereinbart, die globale Erwärmung auf deutlich unter 2 °C gegenüber vorindustrieller Zeit zu begrenzen. Angestrebt werden soll eine Begrenzung auf 1,5 °C.[22]
Als Grenze von einer tolerablen zu einer „gefährlichen“ Störung des Klimasystems wird in der Klimapolitik gemeinhin eine durchschnittliche Erwärmung um 2 °C gegenüber dem vorindustriellen Niveau angenommen. Dabei spielt die Befürchtung eine große Rolle, dass jenseits der 2 °C das Risiko irreversibler, abrupter Klimaänderungen stark steigt. In Deutschland empfahl der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) 1994, die mittlere Erwärmung auf höchstens 2 °C zu begrenzen. Der Rat der Europäischen Union übernahm das Ziel 1996.[278] Die G8 erkannten es beim G8-Gipfel im Juli 2009 an. Im gleichen Jahr fand es als Teil des Copenhagen Accord Eingang in den UN-Rahmen und wurde in völkerrechtlich bindender Form 2015 verabschiedet, das Übereinkommen von Paris trat im November 2016 in Kraft.
Die Vorgabe rückt jedoch zusehends in die Ferne: Da eine Erwärmung um 1,1 °C bereits eingetreten ist (Stand 2019), verbleiben nur noch 0,9 °C. In Szenarien, die noch als realisierbar gelten, müssten zur Erreichung des Ziels die Treibhausgasemissionen bereits 2020 ihr Maximum erreichen und danach rasch sinken.[277] Laut einem im November 2019 veröffentlichten Bericht des Umweltprogramms der Vereinten Nationen gibt es keine Anzeichen, dass die Emissionen in den nächsten Jahren ihren Höhepunkt überschreiten werden.[279] Sollten die Vertragsstaaten des Paris-Abkommens ihre Emissionen wie bis 2016 zugesagt mindern (→ Nationaler Klimaschutzbeitrag), ergibt sich eine globale Erwärmung von 2,6 bis 3,1 °C bis 2100 sowie ein weiterer Temperaturanstieg nach 2100. Für die Einhaltung der Zwei-Grad-Grenze sind demnach eine nachträgliche Verschärfung der Zusagen oder eine Übererfüllung der Ziele zwingend notwendig.
Der Anstieg des Meeresspiegels wäre mit der Zwei-Grad-Begrenzung nicht gestoppt. Die teilweise deutlich stärkere Erwärmung über den Landflächen bringt weitere Probleme. Besonders stark zunehmende Temperaturen werden über der Arktis erwartet. Beispielsweise erklärten Indigene Völker das Zwei-Grad-Ziel für zu schwach, weil es ihre Kultur und ihre Lebensweise immer noch zerstören würde, sei es in arktischen Regionen, in kleinen Inselstaaten sowie in Wald- oder Trockengebieten.[280]
In der sozialwissenschaftlichen Literatur werden unterschiedliche politische Instrumente zur Senkung von Treibhausgasemissionen empfohlen und z. T. kontrovers diskutiert.[281] In ökonomischen Analysen besteht weitgehend Einigkeit, dass eine Bepreisung von CO2-Emissionen, die die Schäden des Klimawandels möglichst internalisiert, zentrales Instrument für einen effektiven und kosteneffizienten Klimaschutz ist. Ein solcher CO2-Preis kann durch Steuern, Emissionsrechtehandel oder Kombinationen beider Instrumente verwirklicht werden.[282][283] Manche Wissenschaftler wie z. B. Joachim Weimann empfehlen einen globalen Emissionsrechtehandel als allein ausreichendes, da effizientestes Instrument.[284] Andere Ökonomen wie z. B. der britische Energiewissenschaftler Dieter Helm erachten dagegen eine CO2-Steuer für geeigneter, da stabiler als die schwankenden CO2-Preise eines Emissionshandels, welche für Unternehmen zu schwierig kalkulierbar seien.[285] Andere wiederum (z. B. der US-amerikanische Politökonom Scott Barrett) argumentieren,[286] dass staatlich vorgeschriebene technische Standards (bestimmte CO2-arme oder CO2-freie Produktionstechnologien bzw. Konsumgüter wie z. B. Pkw) wie beim Montreal-Protokoll zum Schutz der Ozonschicht sich in der internationalen Politik weit besser politisch durchsetzen ließen als ein globaler Emissionsrechtehandel oder eine CO2-Steuer. Der Sozialwissenschaftler Anthony Patt sieht einen Emissionshandel in der realen Politik ebenfalls als zu wenig wirkmächtig an,[287] da der politische Widerstand gegen genügend (d. h. ausreichend für die Dekarbonisierung) stark steigende bzw. hohe CO2-Preise v. a. seitens der energieintensiven Industrien zu groß sei.[288] Die CO2-Preise würden daher – wie beim EU-Emissionshandel – nur auf niedrigem Niveau schwanken, sodass sich (bei einem alleinigen Emissionshandel) für potentielle Öko-Investoren kapitalintensive, langfristig ausgerichtete Zukunftsinvestitionen in CO2-freie Technologien nicht lohnen würden. Dafür bräuchten sie vielmehr die sichere Erwartung, dass die CO2-Preise in Zukunft steigen und hoch bleiben, damit sie sich gegen Konkurrenten, die mit CO2-intensiven Technologien wirtschaften, auf dem Wettbewerbsmarkt absehbar durchsetzen können. Das politische System kann sich jedoch nicht verlässlich auf einen künftig verlässlich steigenden, hohen CO2-Preis verpflichten, da derartige politische Entscheidungen in einer Demokratie immer reversibel sind bzw. wären (so wurde z. B. in Australien eine CO2-Steuer erst eingeführt und nach zwei Jahren von einer neuen, konservativen Regierung wieder abgeschafft). Dies wird auch als „Commitment Problem“ der Klimapolitik bezeichnet.[289]
Deshalb befürwortet Anthony Patt Gesetze zur Subventionierung CO2-freier Technologien wie z. B. das Erneuerbare-Energien-Gesetz (EEG) in Deutschland, die genau diese benötigte Erwartungssicherheit für potentielle Investoren in CO2-freie Technologien herstellen: Das EEG garantiert(e) (zumindest bis zur EEG-Novelle 2016) einem Produzenten von Strom aus erneuerbaren Energien für einen langen Zeitraum (20 Jahre) einen bestimmten Verkaufspreis, der über dem Marktniveau liegt. Diese Garantie unterliegt dem verfassungsrechtlichen Vertrauensschutz. Auf diese Weise abgesichert, gelang es den Investoren in erneuerbare Energien in den letzten beiden Jahrzehnten, durch den Ausbau die Kosten für die Erzeugung von Strom aus erneuerbaren Energien durch Learning by doing (Erfahrungskurve) sehr stark zu senken und allmählich gegenüber Strom aus fossilen Energiequellen und Atomstrom wettbewerbsfähig zu werden. Ähnliche Argumentationen, die die Notwendigkeit einer Flankierung des Emissionshandels durch Gesetze wie das EEG betonen, finden sich im Sondergutachten 2011 des Sachverständigenrates für Umweltfragen[290] oder bei dem Energieökonomen Erik Gawel.[291] Befürworter des Emissionshandels halten dem entgegen, dass der Staat dadurch zu stark in den Markt eingreife und im Gegensatz zu diesem übermäßig teure Technologien für die Subventionierung auswählen würde, da er im Gegensatz zu den Marktakteuren nicht über das Wissen verfüge, welches die effizientesten Technologien seien. Dadurch würden volkswirtschaftliche Ressourcen verschwendet, sodass sich die Gesellschaft weniger Klimaschutz leisten könne als eigentlich (d. h. mit einem idealen Emissionshandel) möglich.[284]
Politische Vorgaben zum Klimaschutz müssen durch entsprechende Maßnahmen umgesetzt werden. Auf der technischen Seite existiert eine Vielzahl von Optionen zur Verminderung von Treibhausgasemissionen, mit der die Energiewende umgesetzt werden kann. Bereits eine 2004 erschienene Studie kam zu dem Ergebnis, dass sich mit den damals vorhandenen Mitteln bereits ein effektiver Klimaschutz realisieren ließe.[292] Die Deutsche Akademie der Naturforscher Leopoldina hielt in einer 2019 publizierten Stellungnahme fest, dass aus technischer Sicht alle Voraussetzungen für den Bau eines klimaneutralen Energiesystems vorhanden sind.[293] Neben den Technologien sind auch die erforderlichen Konzepte für die Energiewende bekannt.[294]
Während in der Vergangenheit die Kosten für Klimaschutztechnik wie z. B. erneuerbare Energien deutlich höher lagen als für konventionelle Technik, sind die Klimaschutzkosten durch den rapiden Preisverfall inzwischen erheblich gesunken. Der IPCC bezifferte die zum Erreichen des Zwei-Grad-Ziels anfallenden Kosten 2014 mit 0,06 % der jährlichen Konsumwachstumsrate. Je früher die Treibhausgasemissionen verringert werden, desto geringer sind dabei die Kosten des Klimaschutzes.[295]
Neuere Studien gehen mehrheitlich davon aus, dass ein erneuerbares Energiesystem Energie zu vergleichbaren Kosten liefern kann wie ein konventionelles Energiesystem.[296] Gleichzeitig hätte Klimaschutz starke positive volkswirtschaftliche Nebeneffekte durch Vermeidung von Klimafolgeschäden und vermiedene Luftverschmutzung durch fossile Energieträger.[297][298][299] Als wichtige Einzelmaßnahme für das Erreichen des Zwei-Grad-Ziels gilt der Kohleausstieg, da damit das knappe Restbudget an Kohlenstoffdioxidemissionen möglichst effizient genutzt werden kann.[300] Mit mehr als 10 Mrd. Tonnen CO2-Ausstoß im Jahr 2018 verursachen Kohlekraftwerke ca. 30 % der gesamten energiebedingten Kohlendioxidemissionen in Höhe von ca. 33 Mrd. Tonnen.[301]
In seinem Sonderbericht 1,5 °C globale Erwärmung nennt der IPCC folgende Kriterien, um das 1,5-Grad-Ziel noch erreichen zu können[302]:
Der Umbau des Energiesystems von fossilen auf erneuerbare Energiequellen, die sog. Energiewende, wird als ein weiterer unverzichtbarer Bestandteil effektiver Klimaschutzpolitik angesehen.[303][304] Die globalen Potenziale sind im IPCC-Bericht dargestellt.[305] Im Gegensatz zu fossilen Energieträgern wird bei der Nutzung der erneuerbaren Energien mit Ausnahme der Bioenergie kein Kohlenstoffdioxid ausgestoßen, und auch diese ist weitgehend CO2-neutral. Der Einsatz erneuerbarer Energien bietet sowohl ökologisch als auch ökonomisch großes Potenzial, vor allem durch das weitgehende Vermeiden der mit anderen Energieformen verbundenen Folgeschäden, die als sog. externe Kosten hohe volkswirtschaftliche Wohlfahrtsverluste verursachen.
Grundsätzlich lässt sich festhalten, dass erneuerbare Energien verglichen mit konventionellen Energienutzungsformen eine bessere Umweltbilanz aufweisen.[306] Zwar liegt der Materialbedarf für diese Technologien höher als beim Bau von Wärmekraftwerken, die Umweltbelastung durch den höheren Materialbedarf ist jedoch gering verglichen mit den brennstoffbedingten direkten Emissionen von fossil befeuerten Kraftwerken.[307] Durch Umstellung der Energieversorgung auf ein regeneratives Energiesystem lässt sich somit die durch den Energiesektor verursachte Umweltbelastung reduzieren.[308] Die große Mehrheit der zu dem Thema durchgeführten Studien kommt zu dem Ergebnis, dass die vollständige Umstellung der Energieversorgung auf erneuerbare Energien sowohl technisch möglich als auch ökonomisch machbar ist.[296]
Die Verbesserung der Energieeffizienz ist ein zentrales Element, um ambitionierte Klimaschutzziele zu erreichen und gleichzeitig die Energiekosten niedrig zu halten.[310] Nimmt die Energieeffizienz zu, kann eine Dienstleistung oder ein Produkt mit weniger Energieverbrauch als zuvor angeboten oder hergestellt werden. Das heißt beispielsweise, dass in einer Wohnung weniger geheizt werden muss, ein Kühlschrank weniger Strom benötigt oder ein Auto einen geringeren Benzinverbrauch hat. In all diesen Fällen führt die zunehmende Effizienz zu einem abnehmenden Energieverbrauch und damit zu einem verringerten Treibhausgas-Ausstoß. McKinsey berechnete zudem, dass zahlreiche Energieeffizienz-Maßnahmen gleichzeitig einen volkswirtschaftlichen Gewinn abwerfen.[311]
In einer globalen Bilanz betrachtet muss jedoch ebenfalls der Rebound-Effekt berücksichtigt werden, der dazu führt, dass eine gesteigerte Energie- bzw. Ressourceneffizienz durch eine Mehrproduktion an Produkten oder Dienstleistungen teilweise wieder ausgeglichen wird. Es wird davon ausgegangen, dass die Energieeinsparung durch Energieeffizienzmaßnahmen durch Rebound-Effekt im Schnitt um 10 % gemildert wird, wobei Werte einzelner Studien zwischen 0 und 30 % schwanken.[312]
Unter Carbon Dioxide Removal wird die Entfernung von Kohlendioxid aus der Atmosphäre verstanden, um den erhöhten Strahlungsantrieb künstlich wieder zu reduzieren. Erreicht werden kann das Kohlendioxidentzug durch den Einsatz von Techniken zum CO2-Entzug („negative Emission“). Hierzu zählen unter anderem:
Der Großteil der Modelle kommt zu dem Ergebnis, dass negative Emissionen notwendig sind, um die Erderwärmung auf 1,5 oder 2 Grad zu begrenzen. Gleichzeitig gilt es nach einem 2016 publizierten Review als sehr risikoreich, von vorneherein den Einsatz negativer Emissionstechnologien anzustreben, da es bisher keine derartigen Technologien gibt, mit denen das Zwei-Grad-Ziel ohne erhebliche negative Auswirkungen auf den Verbrauch von Flächen, Energie, Wasser oder Nährstoffen oder auf die Albedo erreicht werden kann. Aufgrund dieser Limitationen seien sie kein Ersatz für die sofortige und schnelle Reduzierung der heutigen Treibhausgasemissionen durch die Dekarbonisierung der Wirtschaft.[313]
Geoengineering umfasst bisher nicht eingesetzte technische Eingriffe in die Umwelt, um die Erwärmung abzumildern, darunter die Eisendüngung im Meer, um das Algenwachstum anzuregen und auf diese Weise CO2 zu binden, und das Einbringen von Sulfataerosol in die Stratosphäre zur Reflexion von Sonnenstrahlen. Beide Maßnahmen gelten mittlerweile als unbrauchbar.[314]
Durch Steigerung der Ressourcenproduktivität (siehe dazu auch Faktor 4), Verlängerung der Produktlebenszeiten und Verminderung der Obsoleszenz, beispielsweise bei Konsumgütern oder Verpackungen, kann ebenfalls Energie eingespart werden.
Individuelle Möglichkeiten für Beiträge zum Klimaschutz bestehen in Verhaltensumstellungen und verändertem Konsum mit Energieeinsparungen.[315] Zu den zahlreichen Maßnahmen zur CO2-Reduktion zählen unter anderem:
Eine besonders hohe Reduzierung von Treibhausgasen erreicht man durch den Verzicht auf Fleischkonsum, moderne Heizung und Isolierung sowie einmal im Jahr weniger zu fliegen. Darüber, was viel und was wenig gegen den Klimawandel hilft, herrschen in der Allgemeinbevölkerung oft Irrtümer. So sehen 22 % der Deutschen den Verzicht auf Plastiktüten als die Verhaltensänderung ein, mit der man am meisten gegen den Klimawandel beitragen könne. Tatsächlich ist es der potentielle Beitrag dadurch verschwindend gering und durch Verzicht auf Fleischkonsum erreicht man 260-mal mehr, durch Halbierung 130-mal mehr.[316]
Schätzungen des IPCC (2007) zufolge gehen 10 bis 12 Prozent der globalen Emissionen von Treibhausgasen auf die Landwirtschaft zurück. Nicht berücksichtigt wurden hier jedoch unter anderem die Folgen der Abholzung größerer Flächen (u. a. Regenwald) für landwirtschaftliche Zwecke. Eine Studie im Auftrag von Greenpeace geht daher von einem agrarischen Anteil von 17 bis 32 Prozent an den von Menschen verursachten Treibhausgasen aus. In Großbritannien stehen etwa 19 Prozent der Treibhausgasemissionen im Zusammenhang mit Nahrungsmitteln (Landwirtschaft, Verarbeitung, Transport, Einzelhandel, Konsum, Abfall). Etwa 50 Prozent davon gehen diesen Schätzungen zufolge auf Fleisch und Milchprodukte zurück. Das Food Climate Research Network empfiehlt daher unter anderem marktorientierte und regulative Maßnahmen zu nachhaltigerer Produktion bzw. nachhaltigerem Konsum von Lebensmitteln (z. B. CO2-emissionsabhängige Preise/Steuern).[318] Umstellung auf Pflanzen-basierte Ernährung kann laut einer Studie, in vier Ländertypen, zwischen 9 und 16 Jahren vergangener früherer CO2-Emissionen durch fossile Brennstoffe ausgleichen.[319]
Würde der globale Fleischkonsum ab 2015 innerhalb von 40 Jahren auf weniger als ein Drittel reduziert, sänken einer Modellsimulation zufolge die Lachgas- und Methanemissionen der Landwirtschaft unter das Niveau von 1995.[320]
Zur Reduzierung der nahrungsmittelbezogenen Emissionen wird oft der Konsum regionaler Lebensmittel empfohlen. 2019 hat das Potsdam-Institut für Klimafolgenforschung in einer Studie gezeigt, dass eine optimierte lokale Produktion die Emissionen weltweit aus dem Lebensmitteltransport um den Faktor zehn reduzieren könnte.[321] Einer US-amerikanischen Ökobilanz von Weber und Matthews (2008) zufolge liegt der Beitrag des Transports zu den Emissionen der Lebensmittelversorgung in den USA aber nur bei 11 Prozent. Der Hauptanteil (83 Prozent) entstehe bei der Produktion, weswegen die Art der konsumierten Lebensmittel den größten Einfluss habe. Besonders kritisch bezüglich der Produktion von Treibhausgasen wird der Konsum von rotem Fleisch gesehen; stattdessen sollte eher auf Geflügel, Fisch, Eier oder Gemüse zurückgegriffen werden.[322]
Neben politischen Weichenstellungen für eine Energiewende und den Kohleausstieg gehören auch wirtschaftliche Maßnahmen zum Repertoire klimaschützenden Vorgehens, z. B. der Rückzug von Investoren wie Versicherungen, Kreditinstituten und Banken aus Geldanlagen in fossil geprägte Industriebereiche und Unternehmen („Desinvestition“). Die Investitionen können stattdessen umgeleitet werden in nachhaltige Wirtschaftssektoren wie etwa Erneuerbare Energien. So hat z. B. die Weltbank auf dem One Planet Summit Anfang Dezember 2017 in Paris angekündigt, ab 2019 keine Projekte zur Erschließung von Erdöl und Erdgas mehr zu finanzieren.[323] Der Versicherungskonzern Axa teilte dort mit, in Zukunft keine Neubauten von Kohlekraftwerken mehr zu versichern und bis 2020 zwölf Mrd. Euro in „grüne“ Projekte investieren zu wollen.[324] Umweltschutzorganisationen wie Urgewald legen hier den Schwerpunkt ihrer Aktivitäten.
Parallel zu vorbeugendem Klimaschutz in Form von Vermeidungsstrategien sind Anpassungen an bereits eingetretene bzw. künftig zu erwartende Auswirkungen des menschengemachten Klimawandels notwendig: Die mit der Erderwärmung verbundenen negativen Folgen sollen so weit möglich gemindert und möglichst verträglich gestaltet werden; gleichzeitig wird die Nutzung regional möglicherweise positiver Folgen geprüft. Die Anpassungsfähigkeit variiert in Abhängigkeit von verschiedensten Parametern, darunter bestehende Kenntnisse zu örtlichen Klimaveränderungen oder z. B. der Entwicklungsstand und die ökonomische Leistungsfähigkeit eines Landes oder einer Gesellschaft. Insgesamt wird speziell in sozio-ökonomischer Hinsicht die Fähigkeit zur Anpassung stark durch die Vulnerabilität geprägt. Der Intergovernmental Panel on Climate Change (IPCC) zählt die am wenigsten fortgeschrittenen „Entwicklungsländer“ zu den Ländern und Regionen mit besonders hoher Vulnerabilität.
Die Anpassung an die Folgen der Erderwärmung hat vor allem kurz- bis mittelfristige Wirkung. Da die Anpassungsfähigkeit von Gesellschaften jedoch begrenzt ist und eine starke Erderwärmung bereits getätigte Anpassungsmaßnahmen wieder zunichtemachen kann, kann Anpassung keine Alternative zum vorbeugenden Klimaschutz sein, sondern nur eine Ergänzung dazu.[325]
Die Palette potenzieller Anpassungsmaßnahmen reicht von rein technologischen Maßnahmen (z. B. Küstenschutz) über Verhaltensänderungen (z. B. Ernährungsverhalten, Wahl der Urlaubsziele) und betriebswirtschaftlichen Entscheidungen (z. B. veränderte Landbewirtschaftung) bis zu politischen Entscheidungen (z. B. Planungsvorschriften, Emissionsminderungsziele). Angesichts der Tatsache, dass der Klimawandel sich auf viele Sektoren einer Volkswirtschaft auswirkt, ist die Integration von Anpassung z. B. in nationale Entwicklungspläne, Armutsbekämpfungsstrategien oder sektorale Planungsprozesse eine zentrale Herausforderung; viele Staaten haben daher Anpassungsstrategien entwickelt.
In der im Jahr 1992 verabschiedeten Klimarahmenkonvention (UNFCCC), die mittlerweile von 192 Staaten ratifiziert worden ist, spielte das Thema Anpassung noch kaum eine Rolle gegenüber der Vermeidung eines gefährlichen Klimawandels (Artikel 2 der UNFCCC). Für das Kyoto-Protokoll, das 1997 vereinbart wurde und 2005 in Kraft trat, gilt das zwar ähnlich, doch wurde dort grundsätzlich der Beschluss zur Einrichtung eines speziellen UN-Anpassungsfonds („Adaptation Fund“) gefasst, um die besonders betroffenen Entwicklungsländer bei der Finanzierung von Anpassungsmaßnahmen zu unterstützen. Dazu soll auch der Green Climate Fund der Vereinten Nationen beitragen, der während der Klimakonferenz 2010 in Cancún eingerichtet wurde. Für den Fonds stellen Industrienationen Gelder bereit, damit sich Entwicklungsländer besser an den Klimawandel anpassen können.[326]
Spätestens mit dem 3. Sachstandsbericht des IPCC, der 2001 veröffentlicht wurde, hat das Verständnis für die Notwendigkeit von Anpassungsstrategien zugenommen. Betreffs der wissenschaftlichen Unterstützung für Regierungen war insbesondere das im Jahr 2006 beschlossene Nairobi-Arbeitsprogramm zu Adaptation und Vulnerabilität ein wichtiger Schritt.[327]
Die globale Erwärmung ist zunehmend auch ein Thema in Kunst, Literatur und Film; dargestellt wird das Thema zum Beispiel in den Katastrophenfilmen Waterworld oder The Day After Tomorrow.
Zudem existieren eine ganze Reihe von Dokumentarfilmen: Eine unbequeme Wahrheit gilt mit als Kernbotschaft von Nobelpreisträger Al Gore zum anthropogenen Klimawandel. Auch der schwedische Dokumentarfilm Unser Planet befasst sich unter anderem mit dem Klimawandel und beinhaltet Interviews mit verschiedenen Klimaforschern. Der US-amerikanische Dokumentarfilm Chasing Ice hat den Gletscherschwund als Folge der globalen Erwärmung zum Inhalt und porträtiert das Extreme-Ice-Survey-Projekt des Naturfotografen James Balog.
Literarisch wird das Thema u. a. in den 2010 erschienenen Romanen des britischen Schriftstellers Ian McEwan (Solar)[328][329] oder des Autorengespanns Ann-Monika Pleitgen und Ilja Bohnet (Kein Durchkommen)[330] verarbeitet. Hier wird mittlerweile in Analogie zur „Science-Fiction“ von der Entstehung einer neuen literarischen Gattung gesprochen, der Climate-Fiction (CliFi).[331]
2013 erschien unter Ägide des Wissenschaftlichen Beirats der deutschen Bundesregierung Globale Umweltveränderungen der Comic Die Große Transformation. Klima – Kriegen wir die Kurve? (→ Welt im Wandel – Gesellschaftsvertrag für eine Große Transformation).[332]
Cape Farewell ist ein internationales gemeinnütziges Projekt des britischen Künstlers David Buckland. Ziel ist die Zusammenarbeit von Künstlern, Wissenschaftlern und „Kommunikatoren“ (u. a. Medienvertretern) zum Thema Klimawandel. Im Rahmen des Projekts wurden verschiedene Expeditionen zur Arktis und in die Anden durchgeführt, die u. a. filmisch, fotografisch, literarisch und musikalisch verarbeitet wurden (u. a. in den Filmen Art from the Arctic und Burning Ice).[333][334][335]
Italiens Bildungsminister Lorenzo Fioramonti kündigte im November 2019 an, das Thema Globale Erwärmung (Climate Change, Klimawandel im Sinne der Globalen Erwärmung) ab September 2020 als verpflichtenden Lehrstoff in verschiedene Fächer in öffentlichen Schulen in Italien zu integrieren. Während die 6- bis 11-Jährigen über Geschichten aus anderen Kulturen mit dem Thema Umwelt vertraut gemacht werden sollen, wird dies in der Mittelstufe über technische Informationen geschehen. In der Oberstufe sollen die Schüler an das UN-Programm „Transformation unserer Welt: die Agenda 2030 für nachhaltige Entwicklung“ herangeführt werden.[336] Angestrebter Umfang ist eine Schulstunde (à 45 Minuten) pro Woche.[337]