Skip to main content

Im ersten Teil unseres Expedetionsberichts ging es um die Projektplanung und Durchführung. Im folgenden beschreiben wir die ersten Ergebnisse im Vergleich zu Alfred Wegeners Erkenntnissen.

In der ersten Phase im Projekt haben wir uns wissenschaftlich der sauberen Aufarbeitung der bestehenden historischen Daten gewidmet. Die Digitalisierung der Arbeiten Wegeners war eine nötige Grundvoraussetzung, für die wir von der Universitätsbibliothek fachkundig unterstützt wurden. Im Folgenden geben wir ein paar Beispiele der Nutzbarmachung, vertiefende Details sind in einer kürzlich erschienenen Arbeit nachzulesen.

Wetterdatenvergleich

Eine logische Anwendung ist zum Beispiel der Vergleich der von der Wegener Expedition aufgezeichneten Wetterdaten mit Reanalyseprodukten (aus wenigen Beobachtungen berechnete, flächendeckende Produkte). Davon gibt es nur wenige, die so weit zurückreichen; ein weithin genütztes Produkt ist die sog. „20th-century Reanalyse“, von der es zwei Versionen von unterschiedlichen Institutionen gibt (CERA-20C; 20CRv3). Da die Daten von Wegener nicht in die Reanalysen eingeflossen sind, eignen sie sich hervorragend zu deren Validierung. Wir konnten zeigen, dass der Verlauf der lokalen Temperatur grundsätzlich erstaunlich gut übereinstimmt, wobei wie zu erwarten nicht die gesamte Komplexität abgebildet wird (siehe Abb. 1).

Abbildung 1: Vergleich der 2m-Temperatur von zwei 20th-Century Reanalysen (CERA20-C von ECMWF, 20CRv3 von NCEP-NOAA) mit den Messdaten der Wegenerexpedition für die Station im Fjord (FS). (© Abermann et al. 2023)

Schneegrenzenvergleich

Ein anderer Vergleich, den wir auf Basis der historischen Daten unter Nutzbarmachung neuer satellitengestützter Auswertungen machen konnten, basiert auf den Berichten zur Höhe der Schneegrenze am Ende der Sommersaison. In Abbildung 2 zeigen wir die aus den Berichten abgeleitete Höhe der Schneegrenze der Expeditionsjahre 1929 und 1930 (wobei unterschiedliche Angaben in den Berichten jene von 1930 nicht eindeutig beschreiben lassen; ein gutes Beispiel, wie man hier notgedrungen mit Unsicherheiten umgehen muss) und vergleichen diese mit auf MODIS basierenden Auswertungen. Wir zeigen, dass die Höhe der Schneelinie in den Jahren 1929 und 1930 durchaus in einer vergleichbaren Höhe war mit den extremsten Jahren des 21. Jahrhunderts. Das ist relevant, weil wir von Zeiten vor der Satellitenära nur selten verlässliche Informationen bekommen können.

Abbildung 2: Die Höhe der Schneelinie auf Basis von MODIS (Blautöne) und die aus den Berichten Wegeners rekonstruierten von 1929 (rot) und 1930 (gelb). (© Abermann et al. 2023)

Temperaturvergleiche

Erste Ergebnisse haben wir nun auch schon auf Basis unserer eigenen Messungen. Ein Beispiel dafür sollen die vertikalen Drohnenaufstiege vermitteln, die wir während der Sommerexpedition regelmäßig durchgeführt haben. Details zur Methodik kann man in einem kürzlich erschienenen Artikel nachlesen. Um die räumlichen Strukturen aufzulösen, wurde zuerst die gemessene Temperatur während eines Flugs mit der in dem gleichen Zeitraum gemessenen Temperatur an der Referenzstation FS direkt an der Küste verglichen und die errechnete Temperaturanomalie relativ zur FS entlang der Talachse interpoliert. Abbildung 3 zeigt die räumliche Verteilung der Temperaturanomalie am Beispiel des 8.7.2022. Man kann Bereiche erkennen, die wärmer sind als die erwähnte Referenzstation (rot) und die auf Temperaturinversionen schließen lassen. Dabei ist es besonders relevant zu betrachten, wie die geänderte Gletscheroberfläche (Volumenverlust) bzw. die Interaktion zwischen Fjord und Gletscher diese Schichtung beeinflussen.

Abbildung 3: Übersichtskarte des Untersuchungsgebiets mit den Positionen der einzelnen installierten Messinstrumente (AWS – Wetterstation, AblWeg/SWeg – Ablationsmessung, UAV – Drohnen, AT/RH – Temperatur/Feuchtigkeitssensoren). A-F markieren die Positionen der einzelnen Aufstiege. b) zeigt die räumliche Verteilung der Temperaturanomalien, beschriftet mit der Uhrzeit und der gemessenen Temperatur an der Referenzstation FS an der Küste. (© Abermann et al. 2023)

Abgesehen von den ersten Resultaten, die klimatologischen Fokus haben, entstehen derzeit erste Ergebnisse, die Methoden aus dem Themengebiet der künstlichen Intelligenz (KI) für unsere Fragestellungen anwenden. KI Methoden haben zwar auch für wissenschaftliche Fragestellungen in letzter Zeit ihre Nützlichkeit bewiesen, da jedoch auch von einem gewissem Hype gesprochen werden kann, ist immer eine gesunde Portion Skepsis angesagt und unser Projekt und die verwendeten Daten bieten eine gute Gelegenheit ihre Performance zu testen.

Wir haben damit von simplen Frage ausgehend begonnen: Welche Aspekte der großräumigen atmosphärischen Zirkulation bestimmen den lokalen Abfluss im Qaamarujup Fjord? Oder etwas spezifischer: Welche Gebiete bestimmen, wenn man die 500hPa geopotentielle Höhe (eine Variable, die Luftdruckmuster beschreibt) betrachtet, ob es im Fjord über- oder unterdurchschnittlich viel Abfluss durch Schmelzwasser gibt? Diese Problemstellung haben wir nun mit verschiedenen Methoden adressiert – einerseits mit etablierten, “klassischen” statistischen Methoden, wie zum Beispiel k-means Clustering, andererseits mit neueren Methoden aus dem Gebiet der sogenannten ‚erklärbaren KI‘ (XAI). Erste Ergebnisse sind in Abbildung 4 zu sehen, die in a) das Ergebnis mit etablierten Cluster-Methoden zeigt. Dunkle Gebiete bedeuten einen größeren Einfluss auf den Abfluss als helle Gebiete. In Abb. 4b sind dann die Ergebnisse von 9 verschiedenen XAI Methoden zu sehen. Diese geben teilweise ein deutlich anderes Bild ab (unterschiedliche Regionen mit verschieden starken Zusammenhängen). Dies kann einerseits bedeuten, dass die einfachere klassische Methode nicht in der Lage ist, die komplexen Zusammenhänge richtig zu erfassen, andererseits aber auch, dass sie XAI Methoden für diese spezifische Fragestellung nicht geeignet sind. Untersuchungen dahingehend sind noch im Laufen, und eine endgültige Antwort können wir hier noch nicht geben.

Abbildung 4:  Vergleich von verschiedenen statistischen und KI-Methoden, für die Fragestellung, welche Regionen der großflächigen atmosphärischen Zirkulation den Abfluss im Qaamarujup Fjord antreiben. a) klassische Clustering Methode b) 9 verschiedene XAI-Methoden.

Nächste Schritte

Das Projekt hat eine natürliche inhaltliche Elastizität, was der Grundlagenforschung eigen ist und einen sehr erfrischenden Forschungsalltag erlaubt. Insofern sind die nächsten Schritte nicht in Stein gemeißelt und hängen daran, dass wir in dem interdisziplinären Team die Potentiale des Themas richtig erkennen. Mögliche Wege sind eine hochaufgelöste Modellierung der Talatmosphäre mit einem variablen Gletscherbedeckungsgrad. Damit könnten wir unter Umständen herausarbeiten, wie die atmosphärische Schichtung sich verändert, wenn man mehr oder weniger Eis hat und wenn dieses näher am oder weiter entfernt vom Ozean ist. Über die Schichtung hinausgehend hat dies Einfluss auf die Schmelzraten, die wir dann in weiterer Folge mit den historischen Ablationswerten vergleichen bzw. validieren können. Es wird spannend, zu beleuchten, wie eindeutig solche Ergebnisse überhaupt sein können und welcher Anteil in Messungenauigkeiten aufgehen wird oder einem immer von der Realität abweichenden Modellinput zugeschrieben werden könnte.

Auch haben wir eine Zusammenarbeit mit dynamischen Eismodellierern im Projekt geplant und wir werden anstreben, die Gletschergeschichte besser zu beschreiben. Welche Eisdynamik ist nötig, um die Geometrie zu reproduzieren, die wir recht gut von der Vergangenheit her kennen und können wir daraus etwas lernen über zukünftige Entwicklungen? Können die Ergebnisse von einem (zufällig und sicher opportunistisch ausgewählten) Auslassgletscher des Grönländischen Eisschildes auf andere übertragen werden und können wir durch ein verbessertes Verständnis einzelnen Treiber (Ozean, Fjordeis, Atmosphäre, Dynamik) auch verbesserte Prognosen über zukünftige Schmelzraten abgeben? Oder sind die lokalen Effekte im großen Bild an sich vernachlässigbar? Solche Fragen werden uns in den kommenden Jahren weiter beschäftigen.

Anknüpfend an die oben skizzierten ersten Untersuchungen zu XAI werden wir im Laufe des Projektes weitere Methoden und Modellierungen aus dem AI Bereich anwenden. Unsere generelle Vision dabei ist es der Glaziologie und Meteorologie einen neuen Werkzeugsatz zur Verfügung zu stellen, der zwar für unsere konkreten Fragestellungen entwickelt wird, aber auch leicht auf andere Gebiete ausgeweitet werden kann. Die Stärke von KI-Methoden liegt besonders in der Erkennung von Mustern, im Umgang mit großen Datenmengen und vor allem auch der Möglichkeit, komplexe und nicht-lineare Zusammenhänge auswerten zu können – besonders in der Meteorologie und überhaupt den Geowissenschaften sind die Naturvorgänge oft entsprechend komplex und können nur durch Näherungen beschrieben werden. Als Ergebnis der Arbeiten rund um die XAI-Methoden werden wir einen Blick hinter die Kulissen von KI-Algorithmen haben und es wird uns möglich, Rückschlüsse darüber zu ziehen, was in den Daten entscheidend war, um zu einem bestimmten Ergebnis zu kommen. Auch bei der Digitalisierung der historischen Datenquellen kamen uns trainierte Algorithmen bei der Texterkennung bereits zu Hilfe und im nächsten Schritt wollen wir die KI-Unterstützung bei der Datenauswertung entsprechend ausbauen. Die Möglichkeiten sind dabei sehr vielfältig, so können z.B. physikalische Grundgesetzte mit KI-Algorithmen kombiniert werden, um besonders auch mit kleineren Datenmengen aber entsprechendem Vorwissen gut umgehen zu können, oder sogenannte Kausalitätsmodelle und ‚causal discovery‘ können dabei helfen, bisher unentdeckte Zusammenhänge in den Datensätzen sichtbar zu machen. Unsere Grundintention ist es dabei immer, das beste Werkzeug für die jeweilige Fragestellung auszuwählen und dementsprechend auch auszuloten, wo KI hilfreich ist und wo sie an ihre Grenzen kommt.

Fazit

Wir arbeiten nun schon über ein Jahr mit Elan und Freude an unserem Projekt und haben schon viel gelernt. Allem voran vielleicht die Ernüchterung, wie schwierig ein Projekt dieser Skala in einer abgelegenen Gegend wie Grönland eigentlich zu realisieren ist. Wir haben gelernt, wie viel von Glück und Punktlandungen abhängt und wie man permanent umplanen und adaptieren muss. Die Motivation bekommen wir tatsächlich immer wieder neu von dem Privileg, dass wir interessensgesteuert arbeiten können, und somit ist dieser Artikel auch als Plädoyer für Grundlagenforschung zu lesen: Wir müssen (und können vermutlich auch) kein ‚Produkt‘ entwickeln, das irgendwann auf irgendeinem Markt bestehen muss. Vielmehr wollen wir aus unserer Neugier lernen und hoffentlich damit Wissen schaffen – nicht zuletzt inspiriert von großen Vorbildern wie Wegener.

Eine leicht modifizierte Version dieses Artikels erscheint im GeoGraz, der Zeitschrift des Instituts für Geographie und Raumforschung

Leave a Reply

Diese Seite ist durch reCAPTCHA und Google geschützt Datenschutz-Bestimmungen und Nutzungsbedingungen anwenden.

Der Zeitraum für die reCAPTCHA-Überprüfung ist abgelaufen. Bitte laden Sie die Seite neu.