Benutzerspezifische Werkzeuge
Sie sind hier: Startseite Wissen Planet im Computer

Planet im Computer

erstellt von holgerkroker zuletzt verändert: 04.06.2013 23:39

Die Geowissenschaftler schicken sich an, den Astronomen und Klimaforschern nachzueifern und ihren Forschungsgegenstand, die Erde, in allen Facetten im Computer nachzubauen. Auf der EGU-Frühjahrstagung wurde Jeroen Tromp von der Universität Princeton, einer der führenden Köpfe in Sachen Erdsimulation, mit der Beno-Gutenberg-Medaille der Seismologen ausgezeichnet.

3D-Tomogramm der Erde. (Bild: UNAVCO) Geophysiker haben das große Problem, dass sie ihren Forschungsgegenstand nur von außen untersuchen können. Mit ihren tiefsten Bohrungen erreicht die Menschheit bislang gerade einmal in die tiefere Zone der Erdkruste, der obersten und dünnsten der Schalen, aus denen unser Planet aufgebaut ist. Die Aussichten in größere Tiefen zu gelangen sind schlecht. Da ist es nur gut, dass inzwischen ein weiteres passables Instrument zur Hand ist: die numerische Simulation. "Heute können wir Computermodelle des Erdinneren so realistisch wie möglich machen und mit ihnen zeigen, was Seismographen bei einem Erdbeben oder einer geophysikalischen Explorationskampagne registrieren würden", sagt der Seismologe Jeroen Tromp, Professor für Geologie und angewandte Mathematik an der US-Eliteuniversität Princeton. Der gebürtige Niederländer ist einer der führenden Köpfe in Sachen Erdsimulation. "In den vergangenen Jahren wurden über 6000 Erdbeben mit Magnituden über 5,5 mit inzwischen unglaublicher Qualität aufgezeichnet, all diese Informationen stehen uns zur Verfügung", schwärmt der Seismologe, "ich würde diese Daten gern nehmen und das Erdinnere komplett simulieren." Das Ausgangsdatenmaterial haben die Geophysiker demnach, inzwischen ist auch die nötige Computerleistung verfügbar, einzig die Methoden mit dem ungeheuren Datenberg umzugehen fehlen noch. Doch deren Entwicklung haben Tromp und seine Kollegen in den USA, Europa und Japan in Angriff genommen.

Auf regionaler Ebene haben Tromp und seine Kollegen solche Simulationen bereits durchgeführt, als Erstes in Südkalifornien. Dort ist die Dichte des seismischen Netzes so hoch wie sonst selten auf dem Planeten und dank des Störungsgeflechts um die Sankt-Andreas-Verwerfung liefern Erdbeben auch ausreichend häufig Daten für die Seismographen. "Wir haben hier schwächere Beben mit Magnituden zwischen 3,5 und 4,5 genutzt und vor allem flachere Strukturen in Tiefen bis 40 oder 50 Kilometer aufgeklärt", erklärt Tromp. Mit seinem Fokus auf Kruste und oberen Mantel kann das Erdtomogramm das dichte Netz an Störungen besonders gut abbilden, das die Situation in dem Ballungsraum mit rund 20 Millionen Menschen besonders brenzlig macht. "Wir können so präzise simulieren, wie sich gerade die kurzperiodischen Wellen fortpflanzen", so Tromp, "denn das sind die Frequenzen, in denen Bauwerke anfällig sind." Mit ihrem detaillierten Modell der Kruste zwischen San Diego und Los Angeles haben die Seismologen eine Chance, das Geschehen in dem komplexen System von Gebirgszügen und Sedimentbecken angemessen abzubilden. "Welche Erdstöße würde ein Beben auf der südlichen San-Andreas-Verwerfung, etwa in Downtown Los Angeles, auslösen", erläutert der Geophysiker, "oder was geschieht im San Fernando Valley, wenn sich das schwere Erdbeben von 1857 wiederholt."

Das Fort-Tejon-Beben von 9. Januar 1857 gilt mit einer Magnitude von 7,9 als das bisher stärkste Erdbeben, das Kalifornien seit der Besiedlung durch weiße Siedler getroffen hat. Die Wellen waren bis weit in den Norden Kaliforniens, bis Las Vegas im Osten und an der Colorado-Mündung im Golf von Kalifornien zu spüren. Damals war das Gebiet spärlich besiedelt, Fort Tejon, 50 Kilometer südlich des heutigen Bakersfield, war ein Stützpunkt der US-Kavallerie und die größte Siedlung weit und breit. Heutzutage liegen zahlreiche Großstädte in diesem Gebiet, ein solches Beben hätte Auswirkungen voraussichtlich nicht nur auf Kalifornien, sondern auf die gesamte USA, wahrscheinlich sogar auf die Weltwirtschaft.

Tomographie des Erdmantels unter den westlichen Staaten der USA. (Bild: NSF/Richard Allen, UC Berkeley) In Europa dagegen, dem zweiten regionalen Beispiel, ging der Blick der Geophysiker wesentlich tiefer. "Wir wollten die seismischen Daten und die Ergebnisse der Simulationen vereinen und unser Bild von der Kruste und dem oberen Mantel unter Europa verbessern", so Tromp, "und als Resultat haben wir all diese fantastischen tektonischen Elemente gesehen, die die geologische Geschichte Europas widerspiegeln." Die derzeit aktiven tektonischen Zonen im Mittelmeer und weit draußen im Atlantik waren darunter, ebenso die Überreste älterer vulkanischer Aktivitäten unter dem Massif central, der Eifel oder unter Böhmen und auch die ganz alte Kontaktzone, an der Westeuropa an den osteuropäischen Schild andockt. Das Beispiel Europa zeigt allerdings auch, wie wichtig gute Ausgangsdaten für die Computerseismologie sind. Die Erdbebennetze des alten Kontinents sind vor allem an seinen westlichen und südlichen Rändern dicht geknüpft, weil hier noch aktive Erdbebenzonen sind. Je weiter nach Norden und Osten man kommt, desto größer wird die Maschenweite und desto verschwommener daher auch das Bild des Erdinneren. Tromp plädiert stark für eine systematische Durchleuchtung des europäischen Untergrundes, wie sie das Projekt AlpArray durchführen will. Nach dem amerikanischen Vorbild USArray soll ein sehr dichtes Netz permanenter und zeitweiliger seismischer Stationen den Untergrund Europas bis in den tiefen Mantel hinein durchleuchten. Derzeit laufen die Vorbereitungen. Das amerikanische Vorbild ist dagegen bereits in der Endphase. In diesem Jahr wird die Ostküste flächendeckend erreicht werden, die Seismometer hätten dann den amerikanischen Kontinent komplett in West-Ost-Richtung durchwandert.

Die Geophysiker türmen mit all diesen Messkampagnen und den kontinuierlichen Erdbebenmessungen Datenberge auf, die durchaus mit denjenigen der Astronomen und der Teilchenphysiker mithalten können. Mit der Höhe dieser Gebirge wächst die Herausforderung, die Datenmenge zu bewältigen. Selbst Hochleistungsdatenfresser, wie sie Supercomputer darstellen, geraten an ihre Grenzen. "Die Datenmenge ist so gewaltig, dass nur der reine Vergleich von Messdaten und Simulationen eine gewaltige Aufgabe ist, die man nicht in üblicher serieller Weise abarbeiten kann", sagt Jeroen Tromp. Die Geophysiker rund um die Welt tüfteln daher an Strategien, die Datenströme sinnvoll zu kanalisieren. Tromps Arbeitsgruppe in Princeton hat sich mit den Supercomputer-Experten des Oak Ridge-Kernforschungszentrum in Tennessee zusammengetan, in Europa wurde das EU-Projekt Verce eingerichtet. "Ich glaube, es ist realistisch, dass wir in den kommenden zwei Jahren eine erste Version des Planetenmodells haben werden", meint Jeroen Tromp, "für die Zusammenführung allen verfügbaren Datenmaterials dürfte ein Fünf-Jahres-Zeitraum nicht unrealistisch sein."