Rechnen fürs Klima (Teil 1): Evolution der Modelle

Seit jeher hegt der Mensch den Wunsch, das Wetter vorhersagen zu k?nnen. Mit etwas Erfahrung im Deuten von Wetterzeichen konnte man zwar schon immer kurzfristige Vorhersagen machen. Wetterprognosen für mehrere Tage – und Simulationen des künftigen Klimas – sind jedoch erst seit wenigen Jahrzehnten m?glich.

Vergr?sserte Ansicht: Global climate model
Ein globales Klimamodell in geringer (links) und hoher Aufl?sung. (Bild: ETH Zürich/Climate Science Visuals)

Prognosen des Wetters und – in einem gr?sseren Rahmen – des Klimas sind ein komplexer Prozess. Dabei fliessen aktuelle lokale und globale Beobachtungen in spezialisierte Computerprogramme ein, die dann die künftigen meteorologischen Bedingungen modellieren. Die Ergebnisse solcher Simulationen sind nicht nur wichtig für den t?glichen Wetterbericht; sie geben auch Antworten auf Fragen des Klimawandels, etwa bezüglich Anpassung (wie sollen wir mit dem künftigen Klima umgehen?) und Schutzmassnahmen (wie k?nnen wir den Klimawandel eind?mmen?).

Der britische Mathematiker und Meteorologe Lewis F. Richardson versuchte schon 1917, das Wetter ?zu berechnen?. Seine Rechenleistung bestand aus einem gedachten Mitarbeiterbestand von 64’000 Personen, die zusammen den ersten massiv-parallelen ?Computer? darstellten. Richardson entwickelte einen umfangreichen Satz an Tabellen, die als einfacher verteilter Speicher dienten (wobei die einzelnen ?Computer? die Zahlen handschriftlich eintragen sollten). Dazu befasste er sich mit Parallelisierung, Kommunikation und Synchronisation – alles zentrale Themen der modernen Klimasimulation.

Eine Frage der Aufl?sung

Vergr?sserte Ansicht: Richardson's forecast factory
Eine Illustration von Richardson's forecast factory. (Bild: L. Brengtson / Noaa.gov)

Bereits Richardson bildete die Atmosph?re mit einem dreidimensionalen Rechengitter ab, um eine vereinfachte Form der fluid-dynamischen Gleichungen auf einem rotierenden Planeten zu l?sen – sprich: das Wetter zu berechnen – ganz ?hnlich, wie wir das heute tun. Die ersten realistischen Simulationen kamen aber erst sp?ter, in den 50er-Jahren. Man arbeitete damals noch mit einer Aufl?sung von rund 800 km. Ein grosser Durchbruch gelang in den sp?ten 70er-Jahren, als die Aufl?sung in globalen Modellen auf ungef?hr 100 km verfeinert wurde. Das erm?glichte Wettervorhersagen von bis zu fünf Tagen, weil man zum ersten Mal Hoch- und Tiefdrucksysteme angemessen behandeln konnte. Davor waren nur Vorhersagen für einen Tag m?glich.

Heute stehen wir nun vor der n?chsten Herausforderung: Ab einer Aufl?sung von 1 km wird es m?glich, konvektive Wolken (die Gewitter und Regenschauer verursachen) eindeutig abzubilden. Die Dynamik dieser feinskalierten atmosph?rischen Systeme repr?sentieren wir nunmehr mit physikalischen Gesetzen statt wie früher mit halb-empirischen N?herungsverfahren. Solche kilometergenaue Simulationen kommen bereits bei der operativen Wettervorhersage und vermehrt auch in der Klimaforschung zum Einsatz. Zahlreiche Studien zeigen, dass damit der Wasserzyklus und seine Extremerscheinungen angemessen dargestellt werden k?nnen. Zudem hofft man, dass die kilometergenaue Aufl?sung die Genauigkeit der Klimamodelle erh?hen wird. Jüngste Resultate einer Simulation über Europa [1] verdeutlichen die Vorteile hoher Aufl?sung und untermauern diese Zukunftsperspektiven (siehe Abbildung).

Vergr?sserte Ansicht: Visualisierung einer Klimasimulaiton über Europa
Visualisierung einer Klimasimulation über Europa in drei verschiedenen Aufl?sungen (50, 12 und 2 km). Die Graustufen zeigen den Grad der Bew?lkung, die Farbskala entspricht der Niederschlagsrate (mm/h). Man beachte, dass die herk?mmlichen Modelle (die zwei Bilder links) tiefe Niederschlagsraten über grossen Gebieten zeigen, w?hrend die hochaufgel?ste Version hohe Niederschlagsraten über kleinen Gebieten simuliert. Eine Videoanimation dieser Simulation findet sich unter [1] (Dissertation von David Leutwyler, ETH Zürich, [1]).

Diese Simulationen wurden mit dem Modell COSMO durchgeführt [2]. COSMO ist ein komplexes Computerprogramm, das hunderte Forscher in internationaler Zusammenarbeit über Jahrzehnte hinweg entwickelten. Das Programm l?uft auf Hochleistungsrechnern und umfasst über 300000 Zeilen Quellode. Es wird von vielen europ?ischen Wetterzentren – einschliesslich MeteoSchweiz – sowie von rund 200 Wissenschaftlern an verschiedenen Universit?ten und Klimazentren eingesetzt, etwa dem Center for Climate Systems Modelling C2SM an der ETH Zürich.

Bessere Rechenmodelle entwickeln

Vergr?sserte Ansicht: Supercomputer Piz Kesch
Der Hochleistungsrechner Piz Kesch (Mitte) am Centro Svizzero di Calcolo Scientifico (CSCS) berechnet die t?gliche Wettervorhersage (Foto: CSCS).

Hochleistungsrechner, auch Supercomputer genannt, reizen die M?glichkeiten dessen aus, was wir berechnen k?nnen. Dabei nutzen sie spezialisierte Mehrkernprozessoren und Grafikprozessoren (GPUs). Auf solchen massiv-parallelen Systemen h?chste Leistung zu erreichen, ist eine zentrale Herausforderung in der Informatik. Durch Spezialisierung l?sst sich zudem sehr viel Geld und Energie einsparen: Mit der Umstellung auf eine heterogene GPU-basierte Architektur im Piz-Kesch-System [3] konnte der Schweizerische Wetterdienst MeteoSchweiz beispielsweise die Energieeffizienz seiner operativen Vorhersagen um mehr als den Faktor drei verbessern. Diese Rechenmaschine wird nun für die t?gliche Wetterprognose eingesetzt.

Dennoch: Heterogene Rechnersysteme effizient zu programmieren, stellt nach wie vor eine grosse Herausforderung dar – neue Erkenntnisse und Instrumente sind dafür n?tig. Die GPU-Architektur folgt komplett anderen Designprinzipien als traditionelle Prozessoren und zwingt den Programmierer, die massive Parallelit?t in einer spezialisierten Sprache wie etwa CUDA auszudrücken. Das unterscheidet sich grundlegend von der Art und Weise, wie wir in den letzten 30 Jahren Code geschrieben haben. Meine Gruppe, das ?Scalable Parallel Computing Laboratory? SPCL, will die erzielte Leistung weiter steigern und arbeitet an Methoden, um im Rahmen des Projekts ?Platform for Advanced Scientific Computing? (PASC) [4] hochskalierende heterogene Supercomputer zu programmieren. PASC hat zum Ziel, das Hochleistungsrechnen (High-Performance Computing, HPC) in der Schweiz zu modernisieren. Die Resultate werden an der j?hrlichen, gleichnamigen Konferenz diskutiert. [5]

Torsten Hoefler hat diesen Blogbeitrag zusammen mit Christoph Sch?r (ETH Zürich) und Oliver Fuhrer (MeteoSchweiz) geschrieben. In ihrem n?chsten Beitrag, ?Rechnen fürs Klima (Teil 2)?, erkl?ren die Autoren, wie moderne Klimamodelle funktionieren.

Weiterführende Informationen

[1] Leutwyler, D., O. Fuhrer, X. Lapillonne,  D. Lüthi, C. Sch?r, 2015: Continental-Scale Climate Simulation at Kilometer-Resolution. ETH Zurich online resource. externe SeiteShort description and animation, Climate Science Visuals: externe SeiteOnline video.

[2] externe SeiteCOSMO model 

[3] externe SeitePiz Kesch

[4] externe SeitePASC

[5] externe SeitePASC Konferenz

Zum Autor

Torsten Hoefler
JavaScript wurde auf Ihrem Browser deaktiviert