Mit Maschinellem Lernen Nadeln Des Klimawandels In Klimaheuhaufen Finden
Mit Maschinellem Lernen Nadeln Des Klimawandels In Klimaheuhaufen Finden
Anonim

Schlagzeilen machte kürzlich eine Studie, die ergab, dass es jetzt möglich ist, die Fingerabdrücke des Klimawandels aus den Wetterergebnissen eines einzigen Tages zu identifizieren. Unter dem Radar verschwand eine einige Wochen zuvor veröffentlichte Studie, die neue Muster entdeckt, die sich mithilfe von maschinellem Lernen an Klima-Fingerabdrücke ausrichten. Die Unterschiede zwischen den beiden sind aufschlussreich.

Nueral net brain überlagert über Gewitterwolken
Nueral net brain überlagert über Gewitterwolken

Bild zusammengestellt aus Bildern der NASA und des Oak Ridge National Laboratory

Beginnen wir mit der aufmerksamkeitserregenden Studie. Der Titel des Papiers ist verblüffend und klar: Der Klimawandel ist jetzt an jedem einzelnen Wettertag auf globaler Ebene erkennbar. Die Autoren - Sebastian Sippel, Nicolai Meinshausen, Erich M. Fischer, Enikő Székely und Reto Knutti - sind mit dem Institut für Atmosphären- und Klimawissenschaften der ETH Zürich in der Schweiz und verwandten Schweizer und ETH-Daten- und Statistikforschungseinheiten verbunden. Die Studie wurde in Nature Climate Change veröffentlicht, einer führenden Zeitschrift in diesem Bereich mit einem hohen Impact-Faktor von 19,81 (nicht so hoch wie der ziemlich absurde Impact-Faktor von Nature Energy von 54, aber immer noch einer der höchsten, die ich seit einem Jahrzehnt gesehen habe der Beurteilung der Zuverlässigkeit wissenschaftlicher Studien zu verschiedenen Themen). Die Provenienz der Studie ist also solide. Es ist nur eine einzige Studie und Replikation und Validierung sind wichtig, aber die verblüffende und originelle Natur der Entdeckung – das Wetter eines einzigen Tages! - macht es bemerkenswert für eine wichtige Zeitschrift.

Die grundlegenden Erkenntnisse, wie ich Sippel in einer E-Mail-Diskussion sagte, sind aus dem Papier größtenteils selbsterklärend (es ist abgeschirmt, aber Sippel und Co. haben mir eine Kopie zur Verfügung gestellt). Sie verwendeten historische Daten und Klimamodelldaten, führten statistische Regressionsanalysen durch und stellten fest, dass in den letzten Jahren das globale tatsächliche Wetter an einem einzigen Tag ausreichte, um die verräterischen Anzeichen des Klimawandels in Temperatur- und Niederschlagsvarianzen zu erkennen.

Nebeneinander stehende Diagramme von Temperaturanomalien im Vergleich zu Vorhersagen
Nebeneinander stehende Diagramme von Temperaturanomalien im Vergleich zu Vorhersagen

Bilder aus der Studie mit freundlicher Genehmigung der Autoren

Sie betrachteten NCEP1-Daten des aktuellen Wetters aus der ganzen Welt, die sorgfältig und transparent angepasst wurden, als neue Messtechnologien online kamen. Sie verwendeten CMIP5-Klimavorhersagemodelle, die UN IPCC-Standardmodelle, die ab Sonntag mit Hindcasting und anderen Validierungstechniken auf sechs Arten validiert wurden. Sie betrachteten einen gemeinsamen historischen Zeitraum von Ist- und Hindcast-Daten von 1951-1980 und einen modernen Zeitraum von 2009-2018. Sippel wies darauf hin, dass die Anomalieerkennung auf CMIP5-Hindcast-Modellen von 1870-1950 basierte. Sie bewerteten die statistische Regression vom Mittelwert in beiden Zeiträumen, um Anomalien zu identifizieren, und trugen die Ergebnisse auf.

Und die Ergebnisse sind verblüffend. Sowohl aus den aktuellen Daten als auch aus den Klimamodellen geht hervor, dass es in den letzten Jahren viel mehr Temperaturanomalien gab als in einer 30-jährigen Klimaperiode Mitte des 20. Jahrhunderts. Und es ist klar, dass das Klimavorhersagemodell fast genau mit den tatsächlichen Daten übereinstimmt, was erneut eine Validierung des Modells liefert. Ähnliche Ergebnisse wurden für Niederschlagsanomalien gefunden. Wie Katharine Hayhoe sagt, ist es Global Weirding.

Wie Sippel mir gesagt hat und scharfäugige Beobachter aus der Grafik bemerken werden, ist es eine sehr starke Ausrichtung, aber nicht perfekt. Es liegt durchaus im Rahmen der Unsicherheit, aber wenn diese Studie Fuß fasst, erwarten Sie, dass diejenigen, die sich gegen den Klimaschutz aussprechen, die geringfügige Abweichung herauspicken und versuchen, daraus Kapital zu schlagen. Ich habe nicht nachgesehen, aber ich gehe davon aus, dass „fortgeschrittenere“Klimawandel-Leugner NCEP1 bereits speziell wegen seiner Moor-Standards, transparenten und reproduzierbaren Anpassungen angegriffen haben. Verleugnung ist noch vorhersehbarer als das Wetter.

Sippel achtete darauf, auf einige Dinge hinzuweisen, basierend auf Dingen, die die Medien zuvor nicht richtig verstanden hatten. Dies ist ein Erkennungs-, kein Attributionsmodell. Sie sehen klare Beweise für ein Signal, es ist klar, dass es keine andere plausible Erklärung als den anthropogenen Klimawandel gibt, basierend auf unzähligen anderen Studien, aber sie haben diesen Zusammenhang nicht selbst untersucht. Ehrlich gesagt sollte es unnötig sein, diesen Punkt zu erwähnen, wenn das wissenschaftliche Vertrauen in die menschliche Verursachung des Klimawandels jetzt bei 99,9999% liegt und Attributionsmodelle jetzt die Fingerabdrücke bei bestimmten Großereignissen wie Hurrikanen innerhalb von Tagen identifizieren können, aber wir leben in einer Welt, in der FUD ist zu diesem Thema weit verbreitet. In diesem Zusammenhang ist dies ein globaler Fingerabdruck, kein Attributionsmodell für extreme Ereignisse. Und natürlich bedeutet das Modell nicht, dass sie garantieren können, dass ein Tag vom 21. Juni 2024, um ein Datum zufällig auszuwählen, denselben Fingerabdruck sieht, da es Zwangsfunktionen wie La Nina und sie gibt kleiner Bruder und vulkanische Abkühlung, die nicht im Rahmen des Modells oder vorhersehbar sind.

Verschiedene Medien hatten dies als Studie zum maschinellen Lernen identifiziert, aber auch das ist ungenau. Die zugrunde liegende Arbeit wurde mit fortgeschrittener statistischer Ridge-Regression unter Verwendung der R-Sprache durchgeführt, die auch in Studien zum maschinellen Lernen verwendet wird, jedoch nicht in dieser. Die Linie ist jedoch verschwommen. Maschinelles Lernen wird oft als neues Werkzeug im Statistik-Toolkit angesehen, das neue Fähigkeiten mitbringt, aber je nach Aufgabe bestehende Tools repliziert, erweitert oder ihnen sogar unterlegen ist. Und die Sprache ist etwas verschwommen, da ältere Techniken für die statistische Analyse oft dieselbe Sprache wie Studien zum maschinellen Lernen verwenden können und werden.

Ich habe Sippel danach gefragt und er sagte:

„Das statistische Modell basiert auf der Ridge-Regression, einer relativ weit verbreiteten Regularisierungstechnik. Wir haben es in der Arbeit als „statistische Lerntechnik“bezeichnet, aber es kann definitiv als statistisches Standardverfahren angesehen werden (aber die Ridge-Regressionsstrafe für die Regularisierung in statistischen Modellen mit vielen Prädiktoren wird sehr oft auch in Techniken des maschinellen Lernens verwendet).”

Sippel wies mich auch auf eine andere verwandte Studie hin, die keine Schlagzeilen machte: Erzwungene Klimamuster durch eine KI-Linse betrachten. Die Autoren dieser Studie – Elizabeth A. Barnes, James W. Hurrell, Imme Ebert‐Uphoff, Chuck Anderson und David Anderson – stammen vom Department of Atmospheric Science der Colorado State University in Fort Collins, Colorado, und verwandten akademischen Gruppen, mit Ausnahme von Anderson, der bei Pattern Exploration LLC arbeitet, einer KI-Beratungsfirma aus der Stadt. Es wurde in den Geophysical Research Letters der AGU veröffentlicht, einer langjährigen Zeitschrift mit einem respektablen und eher normalen Impact-Faktor von 4,339.

Barneset al. wendete speziell maschinelle Lernansätze an, um zu sehen, welchen Wert es haben könnte. Sie erstellten globale Karten von historischen und simulierten zukünftigen Temperaturen und Niederschlägen. Sie trainierten das neuronale Netz auf tatsächlichen Daten von einigen Jahren. Dann ließen sie es einfach auf der Grundlage der Karten vorhersagen, in welchem ​​Jahr das bestimmte Muster, in dem es präsentiert wurde, aufgetreten ist. Dies ist ein klassischer Ansatz des maschinellen Lernens, der jedoch auf einen neuartigen Datensatz angewendet wird.

Und sie stellten fest, dass dieser Informationsstand für ihr neuronales Netz ausreicht, um das Jahr ab den 1960er Jahren nur anhand der Karten der räumlichen Verteilung von Temperatur und Niederschlag mit guter Genauigkeit zu identifizieren. Sie sind unter anderem in der Lage, anhand globaler Daten Fingerabdrücke des Klimawandels vor fast 60 Jahren zu erkennen.

Auch sie verwenden CMIP5, nicht überraschend. Sie verwenden auch das CESM-Modellset und das BEST-Modell des ehemaligen Skeptikers Richard Muller. Dieses letztgenannte Modell ist insofern interessant, als Mullers Hypothese, dass manuelle, inkonsistente Anpassungsfehler die Quelle der beobachteten globalen Erwärmung sind, nicht nur falsch war, sondern tatsächlich das Gegenteil der Realität war, da die Erwärmung nach automatisierten, konsistenten Anpassungen etwas höher war als zuvor. Ich betrachte Mullers Studie gerne als eine der unbefriedigendsten Investitionen, die die Gebrüder Koch je getätigt haben, noch mehr als der Kauf von gefälschten Weinflaschen in Millionenhöhe.

Die Forscher verwendeten ein relativ flaches neuronales Netz, eines mit wenigen Schichten, da es einen guten Vorhersagewert ergab und mehr Schichten den Vorhersagewert nicht signifikant erhöhten. Sie trainierten es während des gesamten Zeitraums von 1920 bis 2099 für 500 Iterationen bei 80 % der Modellsimulationen und testeten dann an den verbleibenden 20 %, wiederum eine Aufteilung von Standard-Trainingsdaten und Testdaten.

Die Forscher haben kein neues Ergebnis gefunden, indem sie die Klimaauswirkungen des globalen Wetters eines einzigen Tages identifizierten, aber sie haben andere Studien mit einem neuartigen Ansatz, dem maschinellen Lernen, repliziert. Außerdem haben sie bewiesen, dass der Ansatz sinnvoll ist. Wie sie abstrakt sagen:

„Die hier gezeigten Ergebnisse weisen stark auf die potenzielle Leistungsfähigkeit des maschinellen Lernens für die Klimaforschung hin.“

Dies steht im Einklang mit dem Ende 2019 erfolgten Ruf zu den Waffen der Machine-Learning-Community im Zusammenhang mit der Anwendung der Technologie auf die Klimaforschung und -maßnahmen. Abschnitt 7 ihres von Kelly Kochanski verfassten Papiers skizziert die sich abzeichnenden Vorteile maschineller Lernansätze bei der Klimavorhersage und der Vorhersage von Extremwetterereignissen. Barneset al. paper entspricht direkt den Erwartungen der globalen Machine-Learning-Community.

In dieser Geschichte von zwei Studien lohnt es sich, ein paar Dinge herauszuarbeiten. Erstens, dass traditionellere statistische Analysetechniken in ihrer Fähigkeit, einen Wert zu liefern, noch lange nicht ausgeschöpft sind. Sie befinden sich zunehmend auf einem Kontinuum von Werkzeugen, die Forschern zur Verfügung stehen. Sie können Muster finden, die viel schwieriger vorherzusagen oder zu analysieren sind, und einen Vorhersagewert in riesigen Datensätzen finden, wenn Menschen sie nicht erkennen können. Aber auch Menschen haben neuronale Netze, klebrige Netze zwischen unseren Ohren, und die Praxis der Hypothesen-Test-Beurteilung bringt weiterhin Wert ohne jegliche künstliche Intelligenz.

Beliebt nach Thema