Rechnen fürs Klima (Teil 2): Wie moderne Klimamodelle funktionieren

In unserem letzten Beitrag schlugen wir einen Bogen von den theoretischen Anf?ngen der Wetterberechnung zur modernen Klimamodellierung auf massiv-parallelen Computersystemen. Dieser Folgeartikel dreht sich um Klimamodelle und die grundlegende Frage: Wie k?nnen wir die sich laufend ver?ndernde Atmosph?re simulieren?

Vergr?sserte Ansicht: Ein Rechengitter, um das Klima der Welt zu modellieren.
Ein Rechengitter, um das Klima der Welt zu modellieren. (Illustration: EU-Projekt Carbones)

Computersimulationen erm?glichen die t?gliche Wettervorhersage und sind enorm wichtig, wenn es darum geht, den Herausforderungen des Klimawandels zu begegnen. Um das Verhalten des Klimasystems verstehen und vorhersagen zu k?nnen, konstruieren und nutzen Wissenschaftler komplexe Rechenmodelle, welche die relevanten chemischen und physikalischen Eigenschaften der Erdoberfl?che (Land und Ozeane) in vereinfachter Form berücksichtigen. Aber wie funktionieren Klimamodelle genau, und welche Implikationen für die Informatik bringen sie mit sich?

Rechnen auf dreidimensionalen Gittern

?hnlich den frühen Bemühungen von Richardson (siehe Teil 1 dieses Zweiteilers) spannen moderne Klimamodelle ein dreidimensionales Rechengitter über die Erde. Das erlaubt es, die physikalischen Gesetze zu berechnen, welche die Atmosph?re beeinflussen: In jeder Gitterzelle gibt es Werte für Windgeschwindigkeit, Temperatur, Druck, relative Luftfeuchtigkeit und Konzentrationen atmosph?rischer Bestandteile (insbesondere Wasserdampf, aber auch andere Gase und Aerosole), die zusammen den aktuellen Zustand der Atmosph?re in diesem Bereich definieren. Je kleiner die Gitterzelle, desto h?her ist die Aufl?sung des Modells. Unter Berücksichtigung der physikalischen Gesetze berechnet ein Computerprogramm dann Schritt für Schritt alle Werte für zukünftige atmosph?rische Zust?nde. Um die Werte in einer bestimmten Zelle zu aktualisieren, ben?tigt die Software auch Informationen aus den benachbarten Zellen. Solche Programme werden oft als Stencilprogramme bezeichnet [1]. Da die Berechnungszeit und der Speicherbedarf linear mit der Anzahl Gitterzellen wachsen, ist die effiziente parallele Implementierungen von Stencilprogrammen ein wichtiges Forschungsthema des Scalable Parallel Computing Laboratory SPCL. Unter den folgenden Referenzen findet sich eine Einführung zu Klimamodellen sowie eine Tornado-Simulation: [2], [3].

Millionen von Prozessoren auf Trab halten

Wenn wir einen Klima- und Wettercode auf einer hochskalierenden Maschine wie dem Piz Daint am Centro Svizzero di Calcolo Scientifico externe Seite CSCS implementieren, müssen wir das Stencilprogramm so parallelisieren, dass es auf Millionen von Verarbeitungselementen ausgeführt werden kann. In Zusammenarbeit mit MeteoSchweiz und dem CSCS hat ein Student am SPCL, Tobias Gysi, eine spezialisierte Programmiersprache entwickelt, die es Meteorologen erlaubt, Stencilprogramme sehr einfach anzupassen, und es Informatikern gleichzeitig erm?glicht, die Ausführung der Programme zu parallelisieren und zu optimieren. Diese dom?nenspezifische Sprache (DSL, ?domain-specific language?) trennt so die Arbeit des Meteorologen, der das eigentliche wissenschaftliche Rechenproblem definiert, von jener des Informatikers, der die auszuführende Berechnung optimiert. Solche dom?nenspezifische Sprachen effizient und automatisch für heterogene Hardware zu optimieren stellt eine wichtige Forschungsaufgabe für die Informatik dar.

Eine weiteres Forschungsgebiet ist das Speichern und Verwalten der gewaltigen Datenmengen, die schon w?hrend einer einzigen Simulation anfallen. Parameter wie Druck und Windgeschwindigkeit werden für jeden Gitterpunkt und jeden Zeitschritt gespeichert. Man geht davon aus, dass das Datenvolumen in naher Zukunft Exabytes erreichen k?nnte (1018 Bytes, das entspricht 1’000’000 1-TB-Festplatten). Dafür sind neue leistungsstarke Techniken für die Datenerzeugung und -verwaltung sowie für Online-Analysen n?tig. Diese Herausforderungen gehen MeteoSchweiz, das CSCS und die ETH Zürich in einer Kollaboration an, die der Schweizerische Nationalfonds im Rahmen des Programms Sinergia finanziert. [4]

Den Klimawandel über den Alpen und Europa modellieren

Kürzlich wurde eine umfangreiche Simulation des europ?ischen Sommers fertiggestellt [5], [4]. Sie verwendet ein Rechennetz von 500 x 500 x 60 Gitterpunkten bei einer horizontalen Aufl?sung von 2,2 km und deckt einen Zeitraum von 30 Jahren ab. Um die damit verbundenen enormen Datenmengen effizient zu verwalten, wurde nur ein kleiner Teil der Ausgabe gespeichert. Dennoch umfasst das Archiv mehr als 120 TB. Die Simulation erfolgte mit einer konventionellen Version des COSMO-Modells und konsumierte über eineinhalb Jahre Rechenzeit auf dem Supercomputer Monte Rosa am CSCS.

Als n?chstes wollen wir ?hnliche Simulationen mit der GPU-f?higen Version von COSMO durchführen; diesmal aber soll die Modellierung den gesamten europ?ischen Kontinent mit einem zehnmal gr?sseren Rechengebiet abdecken (siehe Abbildung und Animation in Teil 1). Dabei soll auch eine neuere Hardware-Architektur zum Einsatz kommen (Cray XC30, Piz Daint) [3]. Piz Daint weist eine beachtliche Spitzenleistung von 6 x 1015 Flop/s (Gleitkommaoperationen pro Sekunde, ?floating point operations per second?) auf und verfügt über insgesamt 5‘272 Rechenknoten. Da unsere aktuelle Implementierung der COSMO-GPU-Version nur 144 Knoten ben?tigt (das heisst drei Prozent), ist die geplante Ausdehnung des Rechengebietes ein sehr realistisches Ziel.             

Mit diesen Berechnungen m?chten wir den Wasserzyklus einschliesslich extremer Starkniederschlagsereignisse besser verstehen und vorhersagen. Simulationen im alpinen Raum haben bereits interessante Ergebnisse zu Tage gebracht, die kaum glaubhaft w?ren, wenn sie auf semi-empirischen Annahmen basieren würden. Die Resultate deuten n?mlich darauf hin, dass die durchschnittliche Sommerniederschlagsmenge bis Ende des Jahrhunderts um rund 30 Prozent sinken wird, w?hrend die H?ufigkeit heftiger Gewitter und Regenschauer erheblich ansteigen wird. Anders gesagt geht man davon aus, dass Extremf?lle an beiden Enden des Spektrums, also sowohl Dürren wie auch Sturzfluten, zunehmen werden. Erkenntnisse aus solchen Experimenten k?nnen für die Anpassung an den Klimawandel interessant sein: Denn kurzfristige Starkniederschlagsereignisse haben Konsequenzen für die Art und Weise, wie wir Wasservorr?te verwalten und uns vor Hochwasser schützen sollten.

Kooperation f?rdert Klimawissenschaften

Für die Vorhersage des Wetters und des Klimas sind nicht nur leistungsf?hige Computer n?tig, es bedarf auch einer engen Zusammenarbeit zwischen den Klimawissenschaften und der Informatik. Heterogene Hardware-Architekturen sind unerl?sslich für moderne Simulationen, sie erfordern aber einen grundlegend neuen Ansatz in der Softwareentwicklung. Die aktuelle Version des COSMO-Modells ist das weltweit einzige verfügbare regionale Wetter- und Klimamodell, das vollst?ndig auf GPUs laufen kann. Dieser Fortschritt und die daraus entstandenen Perspektiven sind die Früchte einer engen interdisziplin?re Zusammenarbeit zwischen dem CSCS, MeteoSchweiz, dem C2SM und der 澳门美高梅金殿 Informatik und Umweltsystemwissenschaften der ETH Zürich.

Torsten Hoefler hat diesen Blogbeitrag zusammen mit Christoph Sch?r (ETH Zürich) und Oliver Fuhrer (MeteoSchweiz) geschrieben.

Klimarunde

Weiterführende Informationen

[1] externe Seite Stencil code

[2] An introduction to externe Seite climate models

[3] Tornado externe Seite simulation

[4] crCLIM: Convection-resolving climate modeling on future supercomputing platforms. A Sinergia project funded by the SNF. 

[5] Ban N., J. Schmidli and C. Sch?r, 2015: Heavy precipitation in a changing climate: Does short-term summer precipitation increase faster? Geophys. Res. Lett., 42 (4), 1165–1172 externe Seite doi.

[6] Fuhrer, O., C. Osuna, X. Lapillonne, T. Gysi, B. Cumming, M. Bianco, A. Arteaga and T. C. Schulthess, 2014. Towards a performance portable, architecture agnostic implementation strategy for weather and climate models. Supercomputing Frontiers and Innovations, 1 (1), 45-62

Zum Autor

Torsten Hoefler
JavaScript wurde auf Ihrem Browser deaktiviert