«Die Zusammenarbeit war noch nie so eng wie heute»

Das Nationale Hochleistungsrechenzentrum CSCS in Lugano feiert diese Woche sein 25-j?hriges Bestehen. Von Anfang an mit von der Partie war der ETH-Klimaforscher Christoph Sch?r. Er zeichnet nach, wie sich das Hochleistungsrechnen in dieser Zeit entwickelt hat.

Das Nationale Hochleistungsrechenzentrum der Schweiz (externe SeiteCSCS) feiert am 19. Oktober mit einer kleinen Feier sein externe Seite25-j?hriges Bestehen. Seit seiner Gründung 1991 stellt das CSCS Anwendern aus Forschung und Industrie Ressourcen im Bereich Hochleistungsrechnen zur Verfügung, die zur L?sung anspruchsvoller Fragen ben?tigt werden. Das Zentrum wird von der ETH Zürich betrieben und befindet sich in Lugano.

Einer der ersten Nutzer des Zentrums war der ETH-Professor und Klimawissenschaftler Christoph Sch?r. Dies ist kein Zufall, entwickelten die Klimawissenschaftler doch bereits früh numerische Simulationen, um die Klimaentwicklung zu prognostizieren.

Vergr?sserte Ansicht: Christoph Schär
ETH-Professor Christoph Sch?r rechnet seit 25 Jahren seine Klimamodelle auf den Supercomputern des CSCS. (Bild: Alessandro Della Bella)

ETH-News: Herr Sch?r, welche Erinnerungen haben Sie an die Gründungszeit des CSCS?
Christoph Sch?r: Wir haben unsere Klimamodelle von Anfang an am CSCS gerechnet. Zuvor nutzte ich für meine Doktorarbeit das Rechenzentrum der ETH. Als das CSCS gegründet wurde, war die Stimmung unter den Nutzern skeptisch. Selbst heute muss man den Entscheid, das CSCS im Tessin anzusiedeln, vor allem aus einer f?deralen Optik heraus verstehen. Ein Rechenzentrum besteht ja nicht nur aus einem Supercomputer, sondern auch aus vielen Menschen mit Know-how, zu denen wir einen unkomplizierten Zugang haben m?chten. Anfangs schien das im hauseigenen ETH-Rechenzentrum einfacher m?glich.

Haben sich die Bedenken best?tigt?
Wir Forscher haben immer gut mit dem CSCS zusammengearbeitet. 1999 realisierten wir unser erstes grosses gemeinsames Projekt, das Mesoscale Alpine Programme. Damals gelang es erstmals, in Echtzeit die Wettervorhersage in einer Aufl?sung von drei Kilometern zu rechnen. Heute rechnen wir Klimamodelle über einen Zeitraum von Jahrzehnten mit Aufl?sungen, die damals nur für Wetter-Kurzfristvorhersagen über 18 Stunden m?glich waren.

Wer ausser den Klimaforschern nutzte damals sonst noch die Infrastruktur?
Von Beginn weg dabei waren die Astronomen. Ausserdem waren die rechnergestützte Chemie, der Maschinenbau und die Festk?rperphysik vertreten.

Die Rechnerleistung hat sich in den 25 Jahren des Bestehens des CSCS millionenfach erh?ht. Zugleich wurden die Klimamodelle immer komplexer und aussagekr?ftiger. Welches war die treibende Kraft?
Ich war acht Jahre im wissenschaftlichen Beirat beim European Centre for Medium-Range Weather Forecasts (ECMWF) in Reading. Damals konnte ich beobachten, wie die Computerindustrie und die Wissenschaft einerseits Hand in Hand arbeiten, wie sich andererseits aber auch gegenseitig ausspielen. Bei Neubeschaffungen beispielsweise gingen die Quellcodes der ECMWF-Programme an die grossen Hardwarehersteller. Diese versuchten, diese zu optimieren, um die Ausschreibung zu gewinnen. Im Hintergrund stellte sich jedoch immer die Frage, wie stark man die Programme an eine bestimmte Rechnerarchitektur anpassen soll. Wir k?nnen ja nicht alle paar Jahre unsere Codes umschreiben.

Die beiden Initiativen ?Platform for Advanced Scientific Computing? (PASC) und zuvor ?High Performance and High Productivity Computing? (HP2C) zielten jedoch genau darauf ab: Programme an eine neue Rechnerarchitektur anpassen.
Dies h?ngt mit der Einführung von neuen Rechnern mit Grafikprozessoren zusammen. Dazu mussten wir tats?chlich Teile der Programme komplett neu schreiben. Der Anstoss dazu gab der jetzige Direktor des CSCS, Thomas Schulthess. Er hat uns überzeugt, dass es hier um eine strategische Neuausrichtung für die n?chsten Jahrzehnte geht. Nun haben wir eine langfristige Strategie, wie wir die Programme für unterschiedliche Rechnerarchitekturen fit halten k?nnen. Die Zusammenarbeit mit dem CSCS war noch nie so eng wie heute.

Wie haben PASC und HP2C Ihre Forschungsarbeit beeinflusst?
Die Anpassung der Programme war sehr aufw?ndig. Eine universit?re Forschungsgruppe kann unm?glich diesen Effort alleine erbringen. Wir arbeiten seither sehr eng mit dem CSCS, mit MeteoSchweiz und dem Center for Climate Systems Modeling (C2SM) zusammen. Oliver Fuhrer von der MeteoSchweiz leitete das Unterfangen. ?ber einen Zeitraum von rund fünf Jahren haben wir mehr als fünfzehn Personenjahre investiert. Neu arbeiten wir im Rahmen eines Sinergia-Projekts auch mit dem Departement Informatik der ETH zusammen.

Wie s?he die Klimaforschung ohne Hochleistungsrechner aus?
Neben Theorie und Experiment wurde die Simulation die dritte wichtige S?ule der Wissenschaft. In den Klimawissenschaften ist das besonders ausgepr?gt der Fall, weil wir keine Experimente machen k?nnen. Die ?Experimente?, die wir mit dem Klimasystem durchführen, wie dem Ozonloch oder dem Klimawandel, zeigen uns, dass wir besser keine machen sollten. Deshalb sind Simulationen zentral für uns.

Was waren für Sie einschneidende Entwicklungen in den letzten 25 Jahren?
Ein Quantensprung für uns war, als wir in den Modellen erstmals Gewitter und Schauer explizit darstellen konnten. Wichtig war auch, die Ozeanmodelle in das Atmosph?renmodell zu integrieren. Heute sprechen wir von Erdsystem-Modellen, welche die Ozeane, das Meereis und die Landoberfl?chen einbeziehen.

…und bei den Supercomputern?
Die Ver?nderung von einem sogenannten Shared-Memory-Paradigma zu einem Distributed-Memory-Paradigma und die Frage, wie der Speicher auf einem Chip organisiert ist, zeigt, dass die Rechenoperationen selbst heute nicht mehr das gr?sste Problem sind. Wichtig ist heute, wie der Speicher organisiert ist und wie die Daten zu den Prozessoren geführt werden.

Bis Ende dieses Jahrzehnts soll die derzeitige Petaflop-?ra, in der Supercomputer Billiarden von Rechenoperationen pro Sekunde durchführen, durch die sogenannte Exascale-?ra abgel?st werden. Was erhoffen Sie sich davon?
Eines der grossen Ziele der Klimawissenschaften ist, Unsicherheiten wie gewittrige Niederschl?ge und Bew?lkung durch m?glichst explizite Simulationen zu kl?ren. Hierfür muss die Entwicklung in Richtung Exascale weitergehen.

Und was wünschen Sie sich in Zukunft vom CSCS?
?ber den Service und den Betrieb der Supercomputer hinaus brauchen wir Expertise, wie sich das High Performance Computing entwickeln und welche Architektur sich durchsetzen wird. Basierend darauf ergibt sich eine langfristige und kontinuierliche Strategie, die hoffentlich über Dekaden Bestand hat. Rechenzentren sind für uns Klimaforscher zentral. Sie spielen eine ?hnliche Rolle für uns wie das CERN für die Teilchenphysiker.

JavaScript wurde auf Ihrem Browser deaktiviert