Essay

UmweltPerspektiven 08/2018

Wie (un)sicher ist die Zukunft? Smarte Modelle in der Umweltforschung

Prof. Sabine Attinger

Prof. Sabine Attinger
Leiterin des Themenbereichs Smarte Modelle und Monitoring sowie des Departments Hydrosystemmodellierung

Die theoretische Physikerin leitet den UFZ-Themenbereich "Smart Models and Monitoring" und das Department "Computational Hydrosystems". Sie ist außerdem Lehrstuhlinhaberin für "Mathematische Modellierung" am Institut für Umweltwissenschaften und Geographie der Universität Potsdam. Darüber hinaus leitet und unterstützt Prof. Attinger mehrere wissenschaftliche Projekte der DFG und des BMBF. Seit 2014 ist sie Sprecherin für das Thema "From Observations to Predictions" im Helmholtz-Forschungsprogramm "Terrestrial Environment". Der SEU Award (ETH Zürich), der UFZ-Forschungspreis, die Mitgliedschaft im Lenkungsausschuss, z.B. in der Helmholtz-Initiative "Advanced Earth System Modeling" sowie die Mitgliedschaft im Helmholtz Information & Data Science Incubator und Partner in mehreren Inkubator-Projekten gehören unter anderem zu ihren wissenschaftlichen Auszeichnungen und beruflichen Aktivitäten der letzten Jahre.

Ihre aktuellen Forschungsschwerpunkte liegen in räumlich verteilten prädiktiven Umweltmultiskalenmodellen, deren Parametrisierung und der Abschätzung der Auswirkungen von Unsicherheiten auf Modellvorhersagen. Sie arbeitet mit anderen Wissenschaftlern zusammen, um zukünftige Auswirkungen hydrometeorologischer Extreme auf sozioökonomisch relevante Sektoren (Wasserversorgung, Landwirtschaft, städtische Räume) vorherzusagen. Sie koordiniert die Aktivitäten des UFZ im Zusammenhang mit der Überwachung und Beobachtung terrestrischer Systeme entweder langfristig (eLTER, TERENO) oder über die ereignisbasierte Zeitleiste (MOSES). Sie ist Mitglied des Lenkungsausschusses des "Center for Advanced System Understanding CASUS", einem Zentrum für digitale interdisziplinäre Systemforschung in Deutschland, Görlitz. CASUS kombiniert Methoden aus Mathematik, Systemtheorie, Datenwissenschaft und wissenschaftlichem Rechnen an einem Standort, um die datenintensive Systemforschung disziplinübergreifend zu überdenken. Darüber hinaus engagiert sie sich aktiv im "Helmholtz Information and Data Science Incubator" sowie im Helmholtz-Projekt "Digitalisierung in der Wissenschaftsstrategie". Die Anwendung und Entwicklung von datenwissenschaftlich relevanten Methoden sowie Strategien des Research Data Management sind ebenfalls Themen ihres wissenschaftlichen Alltags. Sie ist unter anderem Mitglied der Helmholtz-Arbeitsgruppe für wissenschaftliche Digitalisierung innerhalb der Helmholtz-Gemeinschaft, die die aktuellen und zukünftigen Aktivitäten von acht Helmholtz-Zentren im Rahmen der neu entwickelten Helmholtz-Strategie zur wissenschaftlichen Digitalisierung steuert.

Modelle gibt es schon sehr lange. Bereits 300 Jahre vor Christus befasste sich Aristoteles mit der Frage, wie sich prüfen lässt, ob Theorien wahr oder falsch sind. Dafür ent­wickelte er Denkmodelle über den Sinn des Seins und zur Erklärung der Dinge auf der Welt. Auch heute kennt jeder von uns Denkmodelle, die hypothesen­gestützt und gegebenenfalls empirisch bestätigt oder entkräftet werden. So glaubten die Menschen im Altertum, die Welt sei eine Scheibe. Dieses Denkmodell wurde im Laufe der Jahr­hunderte durch zahlreiche Umwelt­beobachtungen infrage gestellt. Mit der Weltumsegelung von Magellan im 16. Jahrhundert war dann endgültig bewiesen: Die Erde ist eine Kugel.


Seit Beginn des 20. Jahrhunderts haben sich nicht nur Technik und Naturwissenschaften rasant entwi­ckelt – auch mathematische Modelle haben eine immer größere Bedeutung bekommen. Der Kinofilm „Hidden Figures“ zeigt beeindruckend, wie im Jahr 1964 die Rocket­Girls um Katherine Johnson tagelang und zu Dutzenden mit Rechenschiebern in Großraumbüros sitzen, um die Umlaufbahn für die ersten NASA-Satelliten zu berechnen. Heute würde man das mit einem Smartphone in weniger als einer Sekunde erledigen können – das mathe­matische Modell wäre dasselbe. Es ist die Rechenleistung, die in den vergangenen 50 Jahren um den Faktor 1010 zugenommen hat. Sie ermöglicht uns, immer komplexere Phänomene mathematisch in Modellen zu beschreiben und Gleichungssysteme in immer kürzerer Zeit zu lösen.


Umweltmodelle beschäftigen sich mit der Beschreibung und Vorhersage unserer Umwelt, die sowohl ein komplexes als auch empfindliches System ist.

Letztlich sind mathematische Modelle aber immer nur Ver­einfachungen der Realität und nie hundertprozentig sicher. Das liegt daran, dass sie zum einen auf theoretischen Prinzipien basieren. Zum anderen beruhen sie auf Modell­parametern, die die Eigenschaften des Mediums, in dem das Phänomen stattfindet, beschreiben. Bei der Modellierung der terrestrischen Umwelt besteht die große Schwierigkeit, dass diese Modellparameter nur an wenigen Stellen in der Natur direkt gemessen werden können, aber von Stelle zu Stelle stark variieren. Soll zum Beispiel der Wasserstand eines Flusses nach Starkregen vorhergesagt werden – wir sprechen von der Modellierung eines hydrologischen Niederschlagsereig­nisses – müssen wir neben meteoro­logischen Daten nicht nur Parameter des Flusses, sondern seines unter Umständen mehrere hunderttausend Quadratkilometer großen Einzugs­gebietes in die Modellierung einbe­ziehen. Diese Parameter sind auch in Deutschland trotz vergleichsweise guter Datenlage nicht vorhanden und müssen aus einzelnen lokalen Mes­sungen abgeleitet und in die Fläche übertragen, das heißt „regionalisiert“ werden.


Dieser Schritt ist mit erheb­lichen Unsicherheiten verbunden und spiegelt sich im Ergebnis der Model­lierung – der Vorhersage – wider. Je mehr Parameter ins Modell einfließen, desto wichtiger ist es deshalb, auch alle Kombinationen der Parameterunsicherheiten in einer Gesamt­Unsicherheits­betrachtung zu berücksichtigen. Bei der Wettervorhersage etwa sind wir bereits daran gewöhnt, nicht nur die Prog­nose der Niederschlagsmenge mitgeteilt zu bekommen, sondern auch die Eintrittswahrscheinlichkeit. Auch bei der Infrastrukturplanung ist diese probabilistische – also die Wahrscheinlichkeit berücksichtigende – Herangehensweise verbreitet: So kann bei der Planung des Überlaufs von Dämmen das Risiko des Infrastrukturversagens berück­sichtigt werden. Die 100­Jährlichkeit eines Hochwassers heißt nicht, dass es nur alle 100 Jahre auftritt, sondern dass es mit einem Prozent Wahrscheinlichkeit in jedem Jahr überschritten wird.

Umweltmodelle beschäftigen sich mit der Beschreibung und Vorhersage unserer Umwelt, die sowohl ein komplexes als auch empfindliches System ist. In den vergangenen 50 Jahren wurde in vielen Bereichen der Umweltforschung ein fundiertes Modellinstrumentarium aufgebaut und viel Erfahrung in der Anwendung gesammelt. Jedes Modell benötigt dabei neben mathematischen Gleichungen, die das System möglichst gut beschreiben, auch Startwerte, Rand­bedingungen und die bereits erwähnten Modellparameter. Deren Auswahl ist nach wie vor die große Herausforderung.


Deshalb haben wir am UFZ in den vergangenen zehn Jahren insbesondere an der Modellparametrisierung gearbeitet. Mit dem MPR­Ansatz (Multiscale Parameter Regionalization) ist uns eine neue Qualität in der Modellierung des Nieder­schlagsabflusses gelungen. Die Idee dabei ist, Gebietseigen­schaften wie die topografische Höhe, Bodeneigenschaften oder Vegetation, die Satelliten sehr hoch aufgelöst messen können, mithilfe relativ einfacher mathematischer Funktio­nen mit den komplexen, im Detail unbekannten Modell­parameterfeldern zu verknüpfen. Der Vorteil ist, dass nicht wie bei herkömmlichen hochauflösenden Modellen mehrere Millionen unbekannte Parameter geschätzt werden müssen, sondern nur noch einige wenige Freiheitsgrade dieser Funktionen. Das ist ein echter Quantensprung für die Prognosekraft. Hinzu kommt, dass wir Methoden aus der theoretischen Physik verwenden, um unsere Modelle stufenlos skalierbar zu machen. Dabei bleibt die Struktur der Modell­Parameterfelder unabhängig von der räumlichen Auflösung des Modells – ein weiterer Pluspunkt.


Mit dem MPR­Ansatz (Multiscale Parameter Regionalization) ist uns eine neue Qualität in der Modellierung des Nieder­schlagsabflusses gelungen.

Dieser „smarte“ Modellansatz ermöglichte es uns etwa, die Niederschlagsabflüsse simultan für 430 europäische Fließgewässer und die Bodenfeuchte innerhalb aller Ein­zugsgebiete für einen Zeitraum von 50 bis 100 Jahren zu berechnen und gleichzeitig die Unsicherheit der Projektio­nen zu quantifizieren. Die Ergebnisse stehen im Fokus des nachfolgenden Titelthemas. Darin erfahren Sie, wie sich unterschiedliche globale Erwärmungsgrade auf Dürre, Niedrigwasser und Hochwasser in Europa auswirken.


Und wie geht es weiter? Im Wissen um die Projektionen werden wir uns damit beschäftigen, die volkswirtschaft­lichen Gesamtkosten dieser Projektionen abzuschätzen. Aber vor allem werden wir helfen, Vermeidungs­ bzw. Anpassungsstrategien zu entwickeln, weil die Folgen solcher Projektionen insbesondere auch in Mitteleuropa erheblich sein würden: Niedrigwasserstände in den Flüssen, deutlich eingeschränkte Schiffbarkeit und eine zu geringe Kühlleistung für Kraftwerke würden die Folge sein. Gleichzeitig würde der Stromverbrauch in den betroffenen Sommermonaten drastisch ansteigen, weil bei Tagestem­peraturen bis zu 40 Grad die Benutzung von Klimaanlagen im privaten Bereich zum Standard werden würde. Die Landwirtschaft müsste in großen Teilen der Bundesrepublik auf künstliche Bewässerung umgestellt werden, wobei die mehrmonatige Bewässerung aus den Grundwasserleitern nicht überall möglich sein wird.


Die Wissenschaft hat die Aufgabe, diese Folgen möglichst genau abzuschätzen. Für uns Modellentwickler bedeutet das, dass wir unsere Modelle stetig verbessern werden, denn genaue Aussagen zu den Folgen sind wichtig. Modernste Erdbeobachtungssysteme werden dabei eine große Rolle spielen. Die neue Ära der Datenwissenschaften wird helfen, die entstehenden Big Data zu verarbeiten, zu analysieren und sie effizient in unsere Modelle einfließen zu lassen.

Zum Titelthema der Umweltperspektiven 08/2018:
Wie (un)sicher ist die Zukunft? Smarte Modelle in der Umweltforschung