VRM Wochenblätter

04.10.21 | Zukunft

Die kleine, (all-)tägliche Dosis Zukunft

Wettervorhersagen sind ein groß angelegter, wissenschaftlich fundierter Blick in die Glaskugel

von Tino Friederich

 Eine Frage, die sich wohl fast alle Menschen zumindest häufiger stellen, ohne dabei explizit an „Zukunft“ zu denken: „Wie wird denn das Wetter?“ – und das aus den unterschiedlichsten Gründen. Schließlich möchte man jeden Tag adäquat gekleidet sein, der Landwirt will den Spargel im Frühjahr im richtigen Moment mit der richtigen Folie bedecken, der Bauleiter muss wissen, welche Arbeiten an einem Neubau im Spätherbst noch möglich sind, der Einzelhändler legt Wert darauf, an heißen, sonnigen Sommertagen genügend Grillfleisch vorrätig zu haben, und natürlich möchte man sich und sein Hab und Gut jederzeit vor katastrophalen Wetterereignissen schützen können.

 

Gewitterwolke (Cumulonimbus) Foto: Rüdiger Manig

Gewünscht sind möglichst genaue Vorhersagen insbesondere für seinen jeweiligen Aufenthalts- oder Wirkungsort. Die meisten Menschen setzen dazu allerdings nicht mehr auf eigene Beobachtungen und – soweit überhaupt noch vorhanden – daraus resultierende Erfahrungen, auf die man in früheren Zeiten zurückgreifen musste (Stichworte „Wetterzeichen“ und „Bauernregeln“), um Vorhersagen zumindest für die nächsten Stunden treffen zu können, sondern nutzen stattdessen Angebote der Medien (Radio, Fernsehen, Internet, Smartphone-App). Die größeren Medienanstalten beziehen ihre Vorhersagedaten in der Regel von Wetterdiensten. Diese Vorhersagedaten basieren im besten Fall auf feinen und detaillierten Berechnungen, die durch Meteorologen noch interpretiert und regional beziehungsweise lokal sowie grafisch aufbereitet werden, oder im einfachsten Fall, etwa bei einigen sehr günstigen Handy-Apps, auf frei zugänglichen, dafür aber gröberen Wetterdienst-Daten, die den Nutzern nur noch „optisch aufpoliert“ zur Verfügung gestellt werden. 

Berechnung der Zukunft

Doch wie schaffen es die Wetterdienste eigentlich, Wettervorhersagen zu erstellen? Nun, sie verfolgen ganz wissenschaftlich eine grundlegende Idee: Wenn der Anfangszustand der Atmosphäre bekannt ist, kann man, wenn man die entsprechenden Prozesse, die beim Wetter als einem physikalischen Ereignis eine Rolle spielen, kennt und berücksichtigt, die Zukunft berechnen. Dazu wurden und werden Vorhersagemodelle entwickelt und benutzt, mit deren Hilfe physikalische Gegebenheiten und Prozesse unter Berücksichtigung von Gesetzmäßigkeiten (Thermodynamik, Strömungslehre, Energieerhaltungssatz, Gasgesetze, …) möglichst genau in Mathematik (insbesondere komplexe Differenzialgleichungen) übersetzt und die Änderung physikalischer Größen (Temperatur, Luftdruck, Luftfeuchtigkeit, …) im Zeitverlauf möglichst präzise berechnet werden können. So wird etwa beim Globalmodell „ICON“, das der Deutsche Wetterdienst (DWD), der nationale zivile meteorologische Dienst der Bundesrepublik Deutschland mit Sitz in Offenbach, verwendet, die Erdkugel zur geometrischen Figur Ikosaeder vereinfacht. Ein Ikosaeder kann man sich wie einen Brettspiel-„Würfel“ mit 20 dreieckigen Zahlenflächen vorstellen. Dieses grobe, virtuell über die Erdoberfläche gelegte Ikosaeder-Netz, dessen Dreiecksseiten jeweils etwa 7000 Kilometer lang sind, wird nun noch weiter unterteilt in etwa drei Millionen kleinere Flächen mit einem Maschenabstand (bezogen auf die Dreiecksmittelpunkte) von nur noch 13 Kilometern. In der Vertikalen wird die Atmosphäre darüber bis zu einer Höhe von 75 Kilometern in 90 Schichten unterteilt, sodass am Ende ein Gitter mit etwa 265 Millionen Gitterpunkten entsteht. Für einen genaueren Blick auf Europa wird „herangezoomt“, hier kommt das Lokalmodell „ICON-EU“ zum Einsatz. Es hat eine engere Maschenweite von 6,5 Kilometern und 60 Schichten in der Vertikalen, was 40 Millionen Gitterpunkte ergibt. Das dritte zum Einsatz kommende Gitter „ICON-D2“ erlaubt einen detaillierten Blick auf Deutschland. Es hat eine Maschenweite von nur noch etwa zwei Kilometern und ist vertikal in 65 Schichten unterteilt.

Um dem hochkomplexen Wettergeschehen nun Vorhersagen abzutrotzen, muss man insbesondere den jeweils gegenwärtigen (Ausgangs-)Zustand der Atmosphäre möglichst genau kennen. Dazu wird heutzutage ein enormer Aufwand betrieben – denn man muss, je weiter eine Prognose in die Zukunft reichen soll, einen immer größeren Raum im Auge behalten. Grundsätzlich ist für jede auch nur lokale Prognose, die sich über mehrere Tage erstreckt, das Wettergeschehen auf der gesamten Nordhalbkugel relevant und sollte möglichst detailliert betrachtet werden. Ohne internationale Zusammenarbeit und partnerschaftliche Netzwerke ist das nicht möglich. Und da das Wetter keine Pause einlegt und fortwährend aktuelle Prognosen benötigt werden, muss dies eben auch fortwährend geschehen. Aktuelle Daten stammen demzufolge von einem globalen Netz aus Tausenden bemannten oder automatischen Bodenmessstationen, die regelmäßig standardisierte Daten etwa zu Temperatur, Luftdruck, Windgeschwindigkeit, Luftfeuchtigkeit und Niederschlagsmenge erheben. Zudem muss natürlich die Atmosphäre beobachtet werden. Dies geschieht täglich tausendfach mithilfe von Radiosonden, die an Wetterballons in den Himmel steigen, oder auch mittels stationärer Wetter-Radar-Geräte zur großflächigen Überwachung insbesondere von Niederschlagsereignissen. Da aber mehr als zwei Drittel des Planeten von Ozeanen und Meeren bedeckt sind und insbesondere der Atlantik mit „Azorenhoch“ und „Islandtief“ die „Wetterküche Europas“ ist, reichen diese vom Festland aus erhobenen Daten natürlich nicht aus. So werden Wetterbojen, aber auch Verkehrsflugzeuge, Handelsschiffe und heutzutage vor allem geostationäre und polarumlaufende Wettersatelliten zur Ermittlung jeweils aktueller Zahlen eingesetzt. Etwa zehn Million Wetterdaten aus aller Welt laufen so täglich beim DWD zusammen – die meisten stammen inzwischen von Satelliten.

ICON-Ikosaeder-Modellgitterstruktur Grafik: DWD

Wie lässt sich diese regelrechte Flut an Daten nun sinnvoll nutzen? Das geht natürlich nur mithilfe von Hochleistungsrechnern, das entsprechende Verfahren wird als numerische Wettervorhersage bezeichnet und bildet das Herzstück aller seriösen Prognosemethoden. Zunächst müssen die eingesammelten Daten gewichtet auf das Gittermodell übertragen werden (Datenassimilation), um ein möglichst genaues Abbild vom aktuellen Zustand der Erdatmosphäre zu erhalten. Das geschieht beispielsweise beim Globalmodell „ICON“ alle drei Stunden. Gerechnet wird dann im Prinzip für jeden der vielen Millionen Gitterpunkte einzeln von den jeweiligen Ausgangswerten, in einem ersten Schritt nur für wenige Minuten in die Zukunft. Das Ergebnis dieser ersten Rechnung wird dann zum Ausgangspunkt für eine zweite Rechnung, die zweite zum Ausgangspunkt für eine dritte und so fort. Auf diese Weise arbeitet sich das System Schritt für Schritt weiter in die Zukunft voran, und man erhält binnen Minuten, je nach Modell, eine mehrstündige beziehungsweise mehrtägige Wettervorhersage. Mit dem Globalmodell „ICON“ wird zweimal am Tag eine 120- und zwei weitere Male eine 180-Stunden-Prognose für den gesamten Globus berechnet. Die Berechnung dauert aktuell etwa acht Minuten pro Vorhersagetag. Die Ergebnisse dienen dann beispielsweise auch als eine Grundlage für Berechnungen im detaillierteren „ICON-EU“-Gittermodell, und diese wiederum sind eine Basis für „ICON-D2“-Berechnungen.

Im Nachgang werden daraus, beispielsweise von Mitarbeitern in der DWD-Vorhersagezentrale, entsprechende Wettergrafiken erstellt, ähnlich denen, wie man sie etwa aus Fernseh-Wetter-Sendungen kennt, wobei hierfür hierzulande insbesondere die Berechnungen aus dem „ICON-EU“- und dem „ICON-D2“-Modell relevant sind. Insbesondere für lokale Wetterprognosen wird im Anschluss an numerische Wettervorhersagen häufig noch das statistische Verfahren „Model Output Statistics“ angewendet, weil die computerbasierten Berechnungen für bestimmte Parameter (etwa die Bodentemperatur) für bestimmte Lokalitäten, insbesondere mit stark unterschiedlichem Gelände (etwa See, Wald und Fußgängerzone dicht nebeneinander) zu ungenau ausfallen.

5000000000000000/Sekunde

Überhaupt erst möglich gemacht hat das Verfahren der numerischen Wettervorhersage die Entwicklung von Hochleistungsrechnern. Diese kommen inzwischen seit mehr als einem halben Jahrhundert zum Einsatz bei Wetterdiensten, die mit ihrem Streben nach immer genaueren Prognosen eine wesentliche treibende Kraft bei der Entwicklung immer leistungsfähigerer Computer waren. Das heute etwa beim DWD eingesetzte und etwa 50 Millionen Euro teure System NEC SX-Aurora Tsubasa rangiert aktuell mit einer Spitzenleistung von mehr als fünf Billiarden (!) Gleitkommaoperationen (also Additionen und Multiplikationen) pro Sekunde in der Top-500-Liste der leistungsfähigsten Superrechner der Welt auf Platz 105. Und seine Geschwindigkeit ist in etwa eine Milliarde Mal so hoch wie die des allerersten DWD-Rechners CDC 3800 in den 1960er Jahren. Für das, was „Aurora“ in einer Sekunde berechnen kann, hätte der CDC 3800 mehr als 30 Jahre gebraucht. Die Maschenweite des in den 1960er Jahren verwendeten Gittermodells betrug daher auch an die damalige Rechnerleistung angepasste 381 Kilometer.

Doch trotz dieses gigantischen Aufwands, der sinnvollerweise permanent betrieben wird, ist eines klar: Jederzeit hundertprozentig richtige Vorhersagen für Zeiten und Orte, wie sie wünschenswert wären, sind nicht möglich, man kann sich diesem theoretischen Optimum nur annähern – ein Prozess, der, etwa durch neue wissenschaftliche Erkenntnisse und technologische Entwicklungen, permanent betrieben wird und stetig voranschreitet. Als Maßstab für das aktuell Mögliche sei wiederum der DWD angeführt. Nach eigenen Angaben von 2017 schafft man es dort, die Temperatur für den nächsten Tag mit einer Trefferquote von etwa 90 bis 94 Prozent (abhängig von der Stabilität der Wetterlage) richtig anzugeben – wobei als Treffer eine Abweichung von weniger als 2,5 Grad Celsius von der tatsächlichen Temperatur gilt. Für den siebten Vorhersagetag liegt die Quote noch bei etwa 75 bis 78 Prozent. Zum Vergleich: Die Trefferquote für die Temperatur des Folgetages lag Ende der 1980er Jahre noch bei knapp 70 Prozent. Pro Jahrzehnt hat man bisher in etwa einen sicheren Vorhersagetag hinzugewonnen. Die Grenze für die Wettervorhersage wird bei 14 Tagen angenommen; seriöserweise bezeichnet man heute alles, was zeitlich über eine Sieben-Tage-Prognose hinausgeht, nur noch als „Trend“.

Das DWD-Superhirn: NEC SX-Aurora Tsubasa Foto: DWD

Abschließend zur spannenden Frage, wohin die Wettervorhersage, „der (all-)tägliche Blick in die Zukunft“, in Zukunft steuern könnte. Ein wichtiges Ziel dürfte – insbesondere mit der düsteren Aussicht auf klimawandelbedingt häufigere katastrophale Extremwetterereignisse wie kürzlich in Rheinland-Pfalz und Nordrhein-Westfalen erlebt – darin bestehen, lokale Unwetter örtlich noch präziser vorhersagen zu können. Noch leistungsfähigere Computer könnten eine weitere Verengung der Modell-Gitter-Maschenweite, auf einen Kilometer oder noch weniger, ermöglichen, wodurch sich kleinräumige Phänomene, die zur Entstehung von Gewittern führen, besser oder überhaupt erst abbilden lassen – am besten natürlich in einem globalen Gittermodell. Doch dafür müssten, wie Schweizer Forscher vor etwa zwei Jahren geschätzt haben, Rechner im Vergleich zu gegenwärtigen wohl 100- bis 250-mal schneller werden, womit bis zum Jahr 2030 nicht zu rechnen ist. Trotzdem klingt diese „Zukunftsmusik“ angesichts der Leistungsexplosion von den 1960er Jahren bis heute gar nicht so fern …

Weitere und sehr viel ausführlichere Informationen zum Themenkomplex Wetter und Wettervorhersage finden Interessierte beispielsweise beim Deutschen Wetterdienst.

Lesen Sie mehr über das Thema Leben & Zukunft

Neue Straßenbahnen, mehr E-Busse

Neue Straßenbahnen, mehr E-Busse

Das Darmstädter Verkehrsunternehmen HEAG mobilo hat jetzt große Schritte in die Zukunft des ÖPNV in Darmstadt genommen und eingeleitet. So wurden weitere hochmoderne Straßenbahnen des Herstellers Stadler Deutschland GmbHbestellt, die mit 14 schon georderten Fahrzeugen dieser Serie (ST15) ab Frühsommer 2023 das Stadtbild prägen werden.

Ein Lastenrad von Last befreit

Ein Lastenrad von Last befreit

Mobilität muss wettbewerbsfähig sein, nachhaltig und sicher. Leichtbau spielt dabei eine große Rolle. Wissenschaftler*innen des Darmstädter „Fraunhofer-Instituts für Betriebsfestigkeit und Systemzuverlässigkeit LBF“ erforschen seit über 80 Jahren die Leichtbaupotenziale von Fahrzeugen und ihren Komponenten. Auf der „IAA Mobility“ Anfang September in München haben sie völlig neue Ansätze des nachhaltigen, zuverlässigen Leichtbaus für eine klimafreundliche Mobilität der Zukunft präsentiert…

„Lernen, um ,sie’ zu verbessern“

„Lernen, um ,sie’ zu verbessern“

Luna Heisel, 16 Jahre alte Gymnasiastin aus Mommenheim in Rheinhessen, war vom 5. bis 15. Juli Schülerpraktikantin dieses Wochenblatts am Redaktionsstandort Darmstadt. In Vor­bereitung dieser Sonderausgabe „Zukunft – mutig.machbar.menschlich“ entstand damals die Idee, dass sie als ­16-Jährige einmal formuliert, wie sie sich als Vertreterin der jungen Generation „die“  beziehungsweise „ihre“ Zukunft vorstellt und welche Anforderungen in Zukunft wohl auf sie und die Menschheit zukommen werden…

VRM Wochenblätter