Der Eiszeitzyklus (1) – Ursachen und Verlauf

Eiszeitalter, in denen beide Pole mit Eis bedeckt waren, gab es schon mehrere seit Bestehen unseres Planeten. Neben einer nicht genau zu bestimmenden Anzahl kürzerer Vereisungsperioden sind aus der Erdgeschichte sechs Eiszeitalter bekannt, von denen jedes mehrere Millionen Jahre umfasst. Dazwischen lagen unterschiedlich lange Zeiträume mit mehr oder minder stark ausgeprägtem Warmklima.

Im Pliozän, der letzten Periode des Tertiärs (vor 5,3 Millionen bis 2,6 Millionen Jahren), war das Klima relativ stabil und warm. Die Landmassen waren ganz ähnlich wie heute über die Erde verteilt, die Sonne schien genauso stark wie heute. Damals gab es kein Eis auf der Nordhalbkugel. Der Meeresspiegel lag 25 Meter höher, die Ozeane arbeiteten aber nicht so effektiv als Wärmepumpe wie heute. Die thermohaline Zirkulation war so schwach, dass das an den Polen gekühlte Tiefenwasser nicht mehr an die Oberfläche kam und die Tropen temperierte.

Die Atmosphäre enthielt 0,042% Kohlenstoffdioxid. Zum Vergleich: In der letzten Eiszeit lag der Wert bei 0,02%, in den Warmzeiten dazwischen bei 0,028 und 0,03%. Heute liegt er bereits wieder über 0,04% und nähert sich dem Wert im Pliozän an.

Ursachen für den Beginn des derzeitigen Eiszeitzyklus

Die entscheidenden Veränderungen, die das milde Klima des Pliozäns beendeten, spielten sich wohl an der Meerenge von Panama ab. Durch die Plattentektonik hatten sich die Kontinente von Nord-und Südamerika angenähert. Der Prozess wurde durch drei vulkanische Eruptionsphasen im frühen Miozän vor rund 21 und 18 Millionen Jahren verstärkt, wodurch der Meeresgrund stellenweise deutlich angehoben und die Meerenge noch mehr eingeengt wurde.

Nach verschiedenen Studien nahm der Zufluss von Tiefenwasser aus dem Pazifik in die Karibik vor 10 bis 11 Millionen Jahren ab. Aber noch zu Beginn des Pliozän strömte Wasser zwischen Nord- und Südamerika aus dem Pazifik in den Atlantik und glich Salzunterschiede zwischen den Ozeanen aus. Durch eine Gruppe von Vulkanen zwischen Mexiko und der Nordspitze Südamerikas entstanden zwischen den Kontinenten Inseln, so dass sich vor 4,2 Millionen Jahren der Seeweg zwischen den Kontinenten so weit verflacht hatte, dass nur noch ein paar flache, immer wieder trockenfallende Meereskanäle westlich des heutigen Panamakanals übrig blieben. Das Wasser in der Karibik wurde salziger, die Atlantikzirkulation wurde verstärkt. Vor 3,3 Millionen Jahren wuchsen auf der Nordhalbkugel erste Gletscher. Die Lücke zwischen den amerikanischen Kontinenten verkleinerte sich nach und nach immer weiter, bis sie sich vor 2,7 Millionen Jahren ganz geschlossen hatte und fortan eine Landbrücke beide Erdteile miteinander verbindet.

Wie die einzelnen Faktoren damals genau ineinandergriffen, um die folgenreiche Landverbindung zu schaffen, und wann der Zusammenschluss genau geschah, ist umstritten und muss noch geklärt werden. (Eine alternative Studie legt den Zusammenschluss der Kontinente gar 10 Millionen Jahre zurück.) Jedenfalls veränderte er die Meeresströmungen und das Weltklima.

Der Strom tropisch warmen Wassers, das vorher der Passat aus dem tropischen Atlantik in den Pazifik hinüber getrieben hatte, war endgültig unterbrochen. Das Atlantikwasser staute sich stattdessen in der Karibik. Es erwärmte sich im Golf von Mexiko und strömte jetzt nach Norden: Der Golfstrom war geboren. Die warme Strömung setzte paradoxerweise das Eiszeitalter in Gang: Im Nordatlantik verdunstete jetzt viel mehr Wasser als vorher. Die gewaltigen Mengen an feuchter Luft gaben in den kälteren Regionen im Norden Europas die Feuchtigkeit als Schnee ab – in Mengen, wie sie bis dahin noch nicht gefallen waren. Da Schneemassen Sonnenlicht ins Weltall reflektieren*, kühlte die Erde ab. Gleichzeitig kam es zu Veränderungen der Erdbahngeometrie.

*Strahlung, die von der Erde in den Weltraum zurückgeworfen wird, bezeichnet man als Albedo-Feedback. Bei einer niedrigen Albedo absorbiert ein Planet mehr Strahlung, was zu einer Erwärmung führt. Bei hoher Albedo wird sehr viel mehr Strahlung reflektiert. Eis hat ein wesentlich größeres Rückstrahlungsvermögen als beispielsweise Wasser- oder Landflächen. Dehnen sich Eis- und Schneefelder also dank einer globalen Abkühlung aus, wird auch mehr Sonnenstrahlung ins All zurückgeworfen.

Als Folge dieser nie dagewesenen Kombination von kosmischen und geologischen Ereignissen trat das Klima auf der Erde nach vielen Jahren der Tendenz zur Abkühlung und Trockenheit global in eine Phase der Eiszeiten ein. Der radikale Klimawandel führte zur Vereisung der Polkappen – eine außergewöhnliche Entwicklung, denn die Pole waren zu 99% ihrer Existenz frei von Eiskappen.

Verlauf des Eiszeitzyklus

Die Phase der Eiszeiten ist charakterisiert durch erhebliche, langfristige Klimaschwankungen, wobei sich lang anhaltende Kaltzeiten/ Glaziale und kürzere Warmzeiten/ Interglaziale einander in regelmäßigen Intervallen abwechseln – teils sehr abrupt. Die Wechsel haben sich in den letzten zwei bis drei Millionen Jahren mehrere dutzend Mal wiederholt. Innerhalb der letzten Million Jahre lassen sich etwa 10 große Vereisungen und noch mehr Gletschervorstöße geringeren Ausmaßes, sogenannte Eiszeitwellen, nachweisen. Cesare Emiliani, ein italo-amerikanischer Geologe und Mikropaläontologe, erkannte 1955 104 Eiszeitwellen in den letzten 1,8 Millionen Jahren.

Eine Eiszeit geht dabei schrittweise großer Kälte entgegen. Es dauert Jahrtausende, ehe sich eine Eisplatte zu einer Größe vergleichbar mit Kanada oder Nordeuropa aufbaut. Die Eiszeit endet mit rapiden Erwärmungen: Das Abschmelzen verläuft viermal schneller als das Aufbauen der Eispanzer. Nur in diesen wärmeren Zeiten zieht sich das Eis bis zum Nord- und Südpol zurück. Diese Zwischenzeiten, auch unsere heutige, sind aber nur kurze Intermezzi.

Während der einzelnen Kalt- und Warmzeiten treten auch etliche kurze, durchaus heftige Kälteeinbrüche, Stadiale, auf. Am ausgeprägtesten waren sie während der letzten 100 000 Jahre in mäßig kalten Perioden. Die kältesten Phasen des Vereisungszyklus und der derzeitigen Warmzeit wirken dagegen relativ stabil. Unter Interstadial versteht man eine relativ kurze Warmphase zwischen zwei Stadialen innerhalb einer Kaltzeit. Meist dauerte sie nur einige hundert bis wenige tausend Jahre – mit rascher Erwärmung und dann wieder zunächst langsamer und schließlich rapider Abkühlung. Dabei können sich innerhalb weniger Dekaden oder manchmal nur einiger Jahre die Durchschnittstemperaturen um 5° bis teilweise 10°C und die pro Jahr fallende Schneemenge um 100% ändern. Unmittelbar vor oder nach den großen Temperatursprüngen der Interstadialen gab es manchmal schwächere Oszillationen zwischen warm und kalt, was die Klimatologen als „Flackern“ bezeichnen.

Die Perioden des Wechsels zwischen Warm- und Kaltzeiten stimmen hervorragend mit den Berechnungen des serbischen Mathematikers, Astronomen und Geophysikers Milutin Milankovic (1879-1958) überein. Er hatte schon 1920 berechnet, dass und wie sich im Laufe von Hunderttausenden von Jahren die Erdbahn aufgrund der Anziehungskraft der übrigen Planeten verändert hat.

Milankovic entdeckte einen Zusammenhang zwischen den Veränderungen der Bahnexzentrizität der Erde beim Lauf um die Sonne und der Orientierung der Erdachse und den großen Perioden der Kalt- und Warmzeiten. 1941 entwickelte er die heute weitgehend anerkannte Theorie, gemäß der drei Parameter, die langperiodisch auftreten, die Verteilung der Sonneneinstrahlung auf der Erde in einer exakt berechenbaren Weise beeinflussen:

1. Die Position der Erde auf ihrer Ellipsenbahn um die Sonne in Relation zum Sommer auf der Nordhalbkugel.

2. Die Präzession (Neigung der Erdachse) der Erde.

3. Die Exzentrizität der Erdbahn (Abweichung von der Kreisform).

Die Milankovic-Zyklen und ihre Variationen liefern die weltweit akzeptierte Erklärung für den Wechsel von Kalt- und Warmzeiten, aber auch für kurzfristige Klimaänderungen. Zwar beeinflussen die kaum wahrnehmbaren Schwankungen in der Entfernung der Erde zur Sonne die mittlere jährliche Sonneneinstrahlung (Insolation) kaum, doch deren geografische (Breitengrade) und jahreszeitliche Verteilung schwankt durch die Änderung der Einfallswinkel der Sonnenstrahlen um immerhin bis zu 20%. Das Globalklima reagiert darauf sehr empfindlich.

Die charakteristischen Frequenzen der Milankovic-Zyklen – zirka 21 000, 41 000 und 100 000 Jahre – treten in den meisten Klimazeitreihen sehr deutlich hervor. Der Zyklus von 21 000 Jahren entspricht der Periode der Position der Erde auf ihrer Ellipsenbahn in Relation zum Sommer auf der Nordhalbkugel, was an Eisbohrkernen nachgewiesen wurde. Der Zyklus von 41 000 Jahren kommt vor allem durch die rhythmische Schwankung der Erdachsenneigung gegenüber der Bahnebene (also der Periode der Präzession) zustande. Sie variiert zwischen 22,1 und 24,5°. Die Jahreszeiten bekommen dadurch einen anderen Charakter: In nördlichen Breiten sind bei einer stark gekippten Erde die Winter kälter und die Sommer wärmer. Bei einer geringen Neigung der Erdachse bringen relativ milde Winter mehr Schnee, der in kühlen Sommern nicht abtaut, so dass es zu einer Vergletscherung kommen kann.

Der 41 000-Jahre-Zyklus wirkt sich auch auf den Aktivitätsrhythmus von Vulkanen aus. Kieler Wissenschaftler vermuten, dass es in den Erwärmungsphasen, wenn das Eis besonders schnell schmilzt, zu einem „Wippeneffekt“ kommt. Beim Abtauen der Eismassen werden die Kontinente entlastet und der Druck auf den Meeresboden wächst durch einen Anstieg des Meeresspiegels . Dies führe zu Spannungen in der Erdkruste, wodurch Risse entstehe und Magma leichter austreten könne. Während der Abkühlphase sei das Wachsen der Eisschilde und Sinken des Meeresspiegels zu langsam, um Spannungen aufzubauen.

Bis vor einer Million (nach anderen Angaben vor 1,6 Millionen) Jahren fand auf der Erde noch alle 41 000 Jahre eine Eiszeit statt. Dann änderte sich dieser Rhythmus auf einen 100 000-Jahre-Zyklus, der durch die Überlagerung mehrerer Parameter zustande kommt. Inzwischen wurden weitere Zyklen entdeckt, z. B. eine Komponente über 413 000 Jahre und einen schwach ausgeprägten Rhythmus von 60 000 Jahren. Wirken diese Faktoren so zusammen, dass sich die Sonneneinstrahlung auf der Nordhalbkugel in den Sommermonaten deutlich verringert, dehnen sich die Eisdecken aus und überziehen die hohen Breiten periodisch mit kilometerdickem Gletschereis.

Rückkopplungs- und Verstärkermechanismen

Die genannten Variationen der Bahnparameter können die Klimaänderungen aber nicht ganz erklären. Die Veränderungen der Sonneneinstrahlung sind für sich betrachtet viel zu gering, um allein schon die beobachteten Eiszeiten auszulösen. Es muss zusätzliche Effekte geben, um die kleinen Bahneinflüsse in dramatische Klimaveränderungen umzuwandeln.

Meeresströmungen haben einen großen Einfluss auf das Klima. Die Abnahme der sommerlichen Sonneneinstrahlung lässt in hohen nördlichen Breiten die ozeanische Zirkulation erlahmen, was mit heftigen Kälteeinbrüchen im Nordatlantik verbunden ist. Die Temperaturen sinken schließlich so weit, dass der in Kanada und Skandinavien gefallene Schnee im Sommer nicht mehr schmilzt. Eine Inlandeisdecke beginnt allmählich zu wachsen, die weißen Schnee- und Eisfelder reflektieren die einfallende Sonnenstrahlung und kühlen das Klima weiter ab. Bei einer globalen Erwärmung kommt die ozeanische Zirkulation wieder in Gang und verstärkt den Trend.

Ein anderer Verstärkereffekt hängt von dem Treibhausgas Kohlenstoffdioxid in der Luft ab, dessen Konzentration in der Atmosphäre variiert. Neue Forschungen deuten darauf hin, dass zunehmende arktische Vergletscherung mit einem deutlichen Rückgang der globalen CO2-Konzentration von 0,03% während einer Warmzeit auf 0,02% während der Eiszeit in Verbindung steht, weil u. a. das kalte Meerwasser einen Teil des Kohlenstoffdioxids aus der Atmosphäre aufnimmt.

Steigt dann die Temperatur in der Endphase der Kaltzeit wieder, beginnt nach einigen hundert Jahren auch die CO2-Konzentration in der Luft wieder zu steigen. Denn je wärmer das Wasser in den Meeren ist, umso weniger Kohlenstoffdioxid kann es binden. Das CO2 in der Atmosphäre verstärkt den Treibhauseffekt und beschleunigt so die Aufheizung. (Manche Wissenschaftler nehmen an, dass CO2 für rund 50% der Temperaturzunahme in den warmen Perioden verantwortlich ist. ) Erst dieser CO2-Anstieg verstärkt zusammen mit dem Albedo-Effekt das anfängliche Klimasignal, so dass eine Warmzeit nicht in den Anfängen stecken bleibt.

Die Schwankungen der Erdbahn erklären also zusammen mit Verstärkereffekten ziemlich einfach, wie es zu einer Verschlechterung des Klimas kommt, welche das Eis auf dem Festland wachsen lässt, und wie wieder eine Erwärmung eintritt, die den Planeten von Zeit zu Zeit aus der Eiszeit herausmanövriert. Optimale Bedingungen für das Abschmelzen des Eises sind gegeben, wenn der geringste Sonnenabstand in den Frühsommer fällt und gleichzeitig die Neigung des Nordpols zur Sonne am größten ist. Die Sonnenstrahlung, die dann täglich den Nordpol erreicht, ist um 28% größer als unter den schlechtesten Bedingungen. Schließlich gewinnen aber nach ein paar Jahrtausenden die kühlenden Einflüsse immer wieder die Überhand.

Unklar ist heute vor allem, warum sich die Eismassen über lange Zeiträume aufbauen, aber vergleichsweise rasch wieder abtauen. Auch hier könnte nach einer These japanischer Forscher der „Wippeneffekt“ die entscheidende Rolle spielen. Die mächtigen Eisschilde drücken ihr gewaltiges Gewicht auf die Erdkruste und den darunter liegenden, plastisch-verformbaren oberen Erdmantel. Schmilzt das Eis ab, federt die Erdkruste gewissermaßen wieder in ihre Ausgangslage zurück. Das Abschmelzen beschleunigt sich, weil die Oberseite der Eisschilder beim Tauen an Höhe verliert und in tiefere und wärmere Bereiche gelangt.

REM

Die Milchstraße, Teil der Lokalen Gruppe

Die Milchstraße ist eine Spiralgalaxie, die ihren Namen der griechischen Mythologie verdankt: Göttervater Zeus wollte seinem Sohn Herkules, den er mit der sterblichen Königstochter Alkmene gezeugt hatte, die Unsterblichkeit verleihen und legte ihn deshalb seiner schlafenden Gattin Hera an die Brust. Diese erwachte von seinem heftigen Saugen und stieß ihn erbost von sich. Dabei spritzte die Milch aus ihren Brüsten und verteilte sich über den Himmel, wo sie fortan den „Milchkreis“ („Kiklos galaxias“) bildete. So erklärten sich die Menschen in der Antike das „mild schimmernde Band“, das sie am wolkenlosen Nachthimmel erblickten.

Die Milchstraße gehört zur Lokalen Gruppe von Sternensystemen, die wiederum Teil des Virgos-Superhaufens sind, in dessen Zentrum in rund 55 bis 65 Millionen Lichtjahren Entfernung von der Milchstraße eine der uns nächstgelegenen Massenansammlungen von Sternen, der Virgohaufen – benannt nach dem Sternbild, in dem er sich zum größten Teil befindet – liegt.

In der Lokalen Gruppe ist die Andromeda-Galaxie (M31) das größte Objekt, 45 Millionen Lichtjahre von der Milchstraße entfernt und um 40% größer als sie. Wahrscheinlich ist sie vor knapp 6 Millionen Jahren durch eine brachiale Kollision zweier Vorläufergalaxien entstanden. Zu den beiden großen Himmelsobjekten gesellen sich noch eine kleinere Spiralgalaxie (M33) sowie Tausende von Zwerggalaxien.

Die bekanntesten Zwerggalaxien sind die Große und Kleine Magellansche Wolke, von der Erde aus als verwaschene Lichtfleckchen leicht mit bloßem Auge am Südsternhimmel wahrzunehmen. Sie sind rund 160 000 bis 200 000 Lichtjahre entfernt und 20 000 bzw. 15 000 Lichtjahre groß. Die meisten Zwerggalaxien sind nahe Satelliten der Milchstraße oder des Andromeda-Nebels und umkreisen ihre jeweilige Muttergalaxie. Sie werden durch deren gravitativen Einfluss auseinander gezogen und werden irgendwann von ihr verschlungen.

Auch die beiden großen Spiralgalaxien befinden sich auf Kollisionskurs. In wenigen Jahrmilliarden werden sie sich treffen, denn während die Umgebung seit mindestens 3,7 Milliarden Jahren eine beschleunigte Expansion erfährt, überwindet die gesamte Lokale Gruppe mit ihrer Schwerkraft die kosmische Expansion. Mit der Zeit wird sie so in Zukunft zu einer isolierten Oase in den leeren Weiten des Kosmos.

Bis zu einem Abstand von 26 Millionen Lichtjahren von der Lokalen Gruppe bilden die meisten Galaxien eine Art Platte, das sogenannte „local sheet“ (Lokale Schicht oder Lokales Blatt). Unterhalb der Plattenebene liegen in einigem Abstand der Leo-Sporn, eine große fadenförmige Struktur von Galaxien, sowie die Galaxien der Antila- und Dorado-Wolken. Oberhalb der Ebene gibt es kaum etwas; dort herrscht der Lokale Leeraum, ein Blase im Universum.

Um uns die Größen- und Entfernungsverhältnisse im Universum zu veranschaulichen, kann man sich die Größe der Milchstraße als Bonbon vorstellen. In diesem Maßstab wäre die nächstgelegene große Galaxie M31, der Andromeda-Nebel, ein weiteres Bonbon in einer Entfernung von nur 13 Zentimetern. Die Entfernung zum nächsten Nachbarn, einer mit der Lokalen Gruppe vergleichbaren kleineren Galaxiengruppe, der sogenannten Sculptor-Gruppe, betrüge 60 Zentimeter. Und in nur drei Metern Entfernung würden wir eine riesige Ansammlung von etwa 200 Bonbons finden, jedes Einzelne eine Galaxie von 100 Milliarden Sternen, die über das Volumen eines Basketballs verstreut wären: der Virgohaufen. Der nächste große Galaxienhaufen wäre dann 20 Meter entfernt. Es würde sogar entferntere Galaxienhaufen geben, deren Durchmesser bis zu 20 Metern groß sein können. Das gesamte sichtbare Universum, so weit wir es mit unseren Teleskopen wahrnehmen, passte in eine Kugel von einem Kilometer Durchmesser – bei der Verwendung des Maßstabs, in dem die Milchstraße die Größe eines Bonbons hat.

Die Hubble-Konstante

Schon die Formeln Einsteins (Allgemeine Relativitätstheorie) , die beschreiben, wie Zeit, Raum, Materie und Energie zusammenhängen, legten nahe, dass das Universum nicht stillstehen kann; entweder es dehnt sich aus oder es zieht sich zusammen. Der erste Mensch, dessen Beobachtungen Hinweise auf eine Expansion gaben, war der US-amerikanische Astronom Vesto Melvin Slipher (1875-1969) vom Lowell Observatory in Arizona. Er hatte mit Hilfe der Spektroskopie* die Geschwindigkeiten naher Galaxien vermessen und bemerkt, dass die Spektrallinien von fast allen diesen Sternsystemen zu größeren Wellenlängen verschoben waren. Diese so genannte Rotverschiebung war ein Indiz dafür, dass sie sich von uns wegbewegten.

*[Bei der Spektroskopie wird das Licht eines Himmelskörpers in sein Spektrum zerlegt, in dem verschiedene markante Linien zu erkennen sind. Diese entstehen zum Beispiel durch die Absorption des Lichts derselben Wellenlänge in der Atmosphäre des Sterns. Bewegt sich der Himmelskörper von uns weg, sind diese Linien zu größeren Wellenlinien verschoben, das Licht erscheint also etwas „röter“. Auf uns zu rasende Sterne oder Galaxien haben hingegen einen Blaustich.]

Edwin Hubble war der Erste, der in den Jahren 1929 bis 1931 den Abstand vieler Galaxien in unserer kosmischen Nachbarschaft ermittelte – und dabei auch ihre Geschwindigkeiten. In seinen Aufzeichnungen entsprach jeder Galaxie einem Punkt in einem Koordinatensystem. Er notierte auch jeweils ihre Rotverschiebung und verglich sie mit ihrem Abstand von der Erde. Dabei entdeckte er einen einfachen linearen Zusammenhang zwischen Entfernung und Geschwindigkeit der Galaxien: Sie sind direkt proportional zueinander; also je größer die Entfernung einer Galaxie, umso größer die Geschwindigkeit, mit der sie sich von uns fortbewegt. Wir bezeichnen diesen Zusammenhang heute als Hubble-Konstante: H0 = v/E; Geschwindigkeit geteilt durch Entfernung. Die Einheit für die Hubble-Konstante ist Kilometer pro Sekunde und Megaparsek. (Ein Megaparsek entspricht etwa 3,26 Millionen Lichtjahren.)

Da es so aussieht, als ob eine Galaxie, je weiter sie von der Erde entfernt ist, umso schneller flieht, spricht man von ihrer „Fluchtgeschwindigkeit“. In Wirklichkeit expandiert das gesamte Raumgefüge, wobei die Galaxien mitgezogen werden. Sie verhalten sich somit eher wie Rosinen in einem aufgehenden Hefeteig. Die Rosinen bewegen sich nur deshalb voneinander fort, weil sich der Teig aufbläht – und nicht etwa aus eigenem Antrieb. Daher ist der Begriff „Fluchtgeschwindigkeit“ eigentlich falsch, denn die Galaxien werden durch die Raumausdehnung von uns fortgezogen.

Die Hubble-Konstante gilt heute als das Maß für die gegenwärtige Ausdehnungs-geschwindigkeit des Universums. Mit dem aus der Gleichung für die Hubble-Konstante abgeleiteten Hubbleschen Gesetz (v = H0 mal E) konnte man die Entfernungs-geschwindigkeit errechnen. (Die Internationale Astronomische Union will das Hubblesche Gesetz künftig in Hubble-Lemaitre-Gesetz umbenennen, da der belgische Astronom Georges Lemaitre bereits 1927 entdeckt hatte, dass die Feldgleichungen der Allgemeinen Relativitätstheorie einen sich ausdehnenden Kosmos zulassen.)

Die Hubble-Konstante gilt heute als das Maß für die gegenwärtige Ausdehnungs-geschwindigkeit des Universums. Die Kosmologen gehen davon aus, dass sie sich im Laufe der kosmischen Entwicklung verändert hat – einerseits durch die bremsende Wirkung der sich gegenseitig anziehenden Materie, die gerade anfangs dominierte, andererseits durch die Wirkung einer Dunklen Energie, die das All mit wachsendem Abstand zwischen den Galaxien immer weiter auseinander treibt.

Die Hubble-Konstante ist also keine Konstante, sie nimmt mit der Zeit ab. Wegen dieser Zeitabhängigkeit wäre die Bezeichnung Hubble-Parameter heute korrekter. Da die Werte aber im Hier und Jetzt im ganzen Universum mehr oder weniger gleich sein müsste, sprechen die meisten Physiker weiter von einer Konstanten – in der Annahme, dass die Naturgesetze überall im Weltall identisch sind und dass die Welt im Großen keine besondere Richtung und keinen Ort bevorzugt, entsprechend dem so genannten „Kosmologischen Prinzip“*.

*[Das Kosmologische Prinzip besagt, dass das Universum im Großen keine besondere Richtung und keinen besonderen Ort bevorzugt. Man sagt, die Materie im Universum ist im großen Maßstab in alle Richtungen gleichförmig (isotrop) und überall gleichartig (homogen) verteilt.]

Anschaulich bedeutet eine Hubble-Konstante von 50, dass eine Galaxie in einem Megaparsek Entfernung sich scheinbar mit einer Geschwindigkeit von 50 km/s, eine in 100 Megaparsek Entfernung mit einer Geschwindigkeit von 5000 km/s von uns entfernt. Hat sie einen Wert von 100, entfernt sich eine Galaxie dementsprechend mit einer Geschwindigkeit von 10 000 km/s. H0 = 72 heißt dann, dass die Entfernungs-geschwindigkeit 72 km/s beträgt, wenn man ein Megaparsek in den Raum hinausschaut.

Das Hauptproblem für die genaue Berechnung der Hubble-Konstante liegt in der Messung der Entfernung der Galaxien. Zu ihrer Bestimmung braucht man verlässliche Werte. Noch heute aber lassen sich die Abstände in den Weiten des Alls – anders als die Relativgeschwindigkeiten – nur schwer ermitteln. Daher streiten mehrere Wissen-schaftlergruppen seit Jahren über den genauen Wert der Hubble-Konstante. Denn mit verschiedenen, sehr ausgeklügelten Messmethoden kommen sie zu Ergebnissen, die sich deutlich voneinander unterscheiden.

Es stehen sich zwei Lager gegenüber: Auf der einen Seite sind jene Wissenschaftler, die auf Basis der klassischen Entfernungsleiter* die Hubble-Konstante ermitteln. Es wurden verschiedene Verfahren entwickelt, um systematische Fehler in der Griff zu bekommen. Mit sieben unterschiedlichen Methoden kommen sie auf einen Mittelwert der Hubble-Konstante von 73 km/s/Mpc. Den vorläufigen Höhepunkt der Anstrengungen hat jetzt ein Team um Adam Riess von der John-Hopkins-University in Baltimore mit Hilfe von Cepheiden aus der Großen Magellanschen Wolke präsentiert: Demnach liegt der Wert der Hubble-Konstante bei 74 (73,52 plus/minus 1,62) km/s/Mpc, bei einer Unsicherheit von nur noch 1,9%, wobei das Team überzeugt ist, die Unsicherheit noch auf 1% drücken zu können.

*[Um die dritte Dimension der uns flächig erscheinenden Himmelssphäre zu erschließen, wenden die Astronomen unterschiedliche, einander überlappende Methoden an. Dabei arbeiten sie sich stufenweise in die Milliarden von Lichtjahren überspannenden Weiten des Universums vor, denn jede Methode eignet sich nur für einen bestimmten Entfernungsbereich. In der Gesamtheit der Methoden sprechen die Astronomen von der „kosmischen Entfernungsleiter“, da sie sich durch dieses Aneinanderreihen verschiedener Verfahren gewissermaßen von Sprosse zu Sprosse ins All hinaushangelt.]

Die direkten Messungen auf Basis der Entfernungsleiter kommen ohne zusätzliche Annahmen zum kosmologischen Standardmodell aus. Sie haben aber ein Problem: Es ist keineswegs sicher, dass ihre Ergebnisse für das ganze Universum gelten, schließlich ermitteln wir damit nur die Hubble-Konstante im Hier und Jetzt. Einen linearen Zusammenhang von Geschwindigkeit und Abstand kann man aber nur dann erwarten, wenn sich das Universum mit gleichbleibender Geschwindigkeit ausdehnt. Die Expansionsgeschwindigkeit des Alls nimmt aber scheinbar mit der Zeit zu. (Daneben könnte es noch weitere Unsicherheiten geben, die man bislang übersieht.)

Auf der anderen Seite stehen die Astrophysiker, die mit der Hintergrundstrahlung und den größten Strukturen im Universum arbeiten. Dabei gehen sie von der Größe charakteristischer Temperaturschwankungen in der kosmischen Hintergrundstrahlung aus, die ihren Ursprung in Dichtefluktuationen im Urgas haben und aus denen im Laufe von Milliarden Jahren Galaxienhaufen und Galaxiensuperhaufen entstanden sind. Experten können aus diesen Unregelmäßigkeiten einen Wert für die Hubble-Rate ermitteln.

Mit diesen kosmologischen Methoden ergibt sich ein Wert für die Hubble-Konstante von 67,4 km/s/Mpc bei einer Ungenauigkeit von 0,5% – ein um 5 bis 8 km/s/Mpc niedrigeres Ergebnis als die Messungen mit Hilfe der Entfernungsleiter liefern. Die Werte bei den auf der kosmischen Hintergrundstrahlung fußenden Verfahren sind präziser, hängen aber vom zugrundeliegenden kosmischen Standardmodell des Universums ab – das falsch sein könnte.

Fest steht also, dass alle Methoden Schwachpunkte haben. Ihre ermittelten Ergebnisse sind miteinander unvereinbar. Die nächstliegende Erklärung für die Diskrepanz ist ein unbekannter systematischer Fehler in den Daten oder Modellen vom fernen oder vom näheren Universum oder von beiden. Vielleicht verstehen wir auch die Abläufe im Universum noch nicht richtig. Die radikalste Lösung wäre die Einführung neuer physikalischer Annahmen, Größen, Effekte oder Gesetze, z. B. die Infragestellung des Kosmologischen Prinzips. So halten es Astrophysiker für möglich, dass sich Teile des Kosmos mit unterschiedlichen Geschwindigkeiten ausdehnen.

Vielleicht gibt es die Anomalie der Hubble-Konstante also gar nicht. Der Oxford-Physiker Subir Sarkar und sein Team haben festgestellt, dass die Supernovae vom Typ Ia möglicherweise keineswegs Standardkerzen in der kosmischen Entfernungsleiter darstellen. Sie sollen vielmehr entgegen der bisherigen Annahme nicht immer die gleiche Strahlungsmenge freisetzen, sondern je nach Alter des Vorgängersterns unterschiedlich heftig explodieren. (Darauf hatte schon eine koreanische Gruppe hingewiesen.) Der Effekt ähnelt sehr dem, der der Dunklen Energie zugesprochen wird, durch die das Universum immer schneller expandieren soll. Zudem sind Daten aus verschiedenen Tabellen, die teilweise dieselben Supernovae beschreiben sollen, nicht kompatibel.

Sarkar hält generell Dunkle Energie und beschleunigte Expansion für riesige Irrtümer. Er konstatiert: Auch die Bewegung einer Galaxie, die von der Schwerkraft ihrer kosmischen Nachbarn von uns weggezogen wird, kann die Wellen strecken, uns also röter erscheinen. Gleiches gilt für unsere eigene Bewegung durchs All.

Nach seiner Untersuchung können die gemessenen Daten durch die Bewegung unserer Milchstraße erklärt werden. Sarkar glaubt, dass wir von irgendeiner großen Masse jenseits des 650 Millionen Lichtjahre entfernten Shapley-Galaxienhaufens angezogen werden. Dass sich dort eine große Massenansammlung befinden könnte, ein „Großer Attraktor“, ist seit Längerem ein Thema unter Astrophysikern. Ob damit aber die Dunkle Energie aus dem Weltbild verschwinden würde, ist die große Frage.

Die Hubble-Konstante ist seit ihrer erstmaligen Formulierung die wahrscheinlich wichtigste Zahl in der Kosmologie. Sie gilt als eine Art Zollstock für das zuverlässige Errechnen von Distanzen zwischen den Sterneninseln. Für die Kosmologen bedeutet sie auch den Schlüssel zur Bestimmung sowohl der Größe als auch des Alters unseres Universums. Die derzeitigen Diskrepanzen in ihrer Vermessung könnten die Kosmologie in eine tiefe Krise stürzen.

REM

Viren – nicht nur zum Fürchten

Es wird in diesen Tagen so viel über Viren gesprochen – und fast durchweg nicht Gutes. Sie werden berechtigterweise mit schweren Krankheiten und Epidemien in Verbindung gebracht. Aber die Wenigsten wissen etwas Genaueres über sie.

Viren sind meist kleiner als Zellen. Ihre Größe reicht von 10 bis mehr als 400 Nano-metern Länge (1 Nanometer = 1 Millionstel Meter). Sie bestehen im einfachsten Fall aus einer Proteinhülle , die einen einfachen Strang aus DNA oder RNA als Erbgut enthält. Die wichtigste Gemeinsamkeit in der immens großen Zahl unterschiedlicher Virengruppen ist, dass alle eine Wirtszelle brauchen, um sich zu vervielfältigen. Alle Viren sind also zwangsläufig Parasiten – von Bakterien, Archaeen und Organismen mit Zellkern wie Amöben und Vielzellern.

Bei der Frage, ob Viren leben oder doch nur Kristalle mit besonderen Eigenschaften sind, scheiden sich die Geister. Wenn sie isoliert existieren, scheinen sie jedenfalls nicht lebendig zu sein. Sie haben keinen Stoffwechsel und brauchen zu ihrer Vermehrung die genetischen Programme ihres Wirtes. Daher wurde im Jahr 2000 vom „International Committee on Taxonomy of Viruses“ offiziell beschlossen, Viren nicht zu den Lebewesen zu zählen.

Andererseits fällt es aber auch schwer, sie als tote Materie anzusehen. Für Professor Bernd Olaf Küppers vom Max-Planck-Institut für biophysikalische Chemie in Göttingen reicht es, dass Viren innerhalb ihrer Wirtszellen einen Stoffwechsel haben, sich vermehren und durch Mutationen an neue Umwelten anpassen können. Seine knappe Formel lautet: Leben ist Materie plus Information.

Für zwei Szenarien zu ihrer Entstehung gibt es gute Argumente:

1. Sie sind präzellulär, d. h. älter als die ersten Zellen. Eine effektive Vermehrung und erfolgreiche Evolution war ihnen aber erst möglich, als bereits Zellen existierten, die ihnen als Wirtssysteme bei ihrer Vermehrung dienten.

2. Sie haben sich aus Bakterien oder Archaeen entwickelt, nachdem diese die Erde schon in Besitz genommen hatten. Parasitisch lebende Vertreter dieser Arten haben dann mit der Zeit alle nicht unbedingt zum Überleben notwendigen Bestandteile verloren. Vielleicht haben sich auch Teile von Zellen selbständig gemacht, beispielsweise einzelne Zellorganellen.

Viren sind heute allgegenwärtig. Man schätzt, dass ihre Gesamtzahl die Zahl der auf der Erde vorhandenen Zellen um das 10- bis 100fache übertrifft. Aber derzeit sind erst 0,0002% der weltweit existierenden Virengenome bekannt. Auch wir selbst und unser Inneres sind von Viren übersät. Sie parasitieren unsere Zellen – z. B. die Papillomviren unserer Schleimhäute.

Wird die genetische Botschaft der in den Organismus eingedrungenen Viren nicht abgefangen, so bemächtigen sich diese der Proteinsynthesemaschinerie der Zelle und zwingen sie, virale Proteine herzustellen und die Viren zu vermehren. Erst Mitte des 19. Jahrhunderts erkannten Forscher in ihnen Verursacher ansteckender Krankheiten. (Die Bezeichnung „Virus“ – von lateinisch „virus“ = Schleim, Gift, Geifer – galt dann zunächst als Sammelbezeichnung für alle Krankheitserreger kleiner als Bakterien.) Sie entscheiden oft über Leben und Tod, wie man derzeit wieder besonders schmerzvoll erfahren muss. Im letzten Jahrhundert forderten sie mehr Todesopfer als alle Kriege zusammen.

Unser Immunsystem steht in einem fortwährenden Kampf mit den viralen Eindring-lingen. Gesunde Organismen verfügen aber über ein Arsenal von Abwehrwaffen gegen sie. Andererseits entwickelten und entwickeln die Viren immer wieder zahlreiche Mechanismen, mit denen sie der Vernichtung durch die Immunabwehr entgehen. Es gibt praktisch keine bekannte Komponente des menschlichen Immunsystems, die nicht von irgendeinem Virus manipuliert wurde.

Dieser entwicklungsgeschichtliche Rüstungswettlauf hinterließ seine Spuren auch in der menschlichen DNA. Überall verstreut finden sich Tausende Kopien viraler Sequenzen, von denen viele von Viren stammen, die vor Jahrmillionen in Säugetieren Krankheiten erzeugten, von ihren Wirten aber im Laufe der Zeit unschädlich gemacht wurden. Die meisten sind also schon lange nicht mehr in der Lage, eigenständige infektiöse Partikel zu erzeugen. Sie überdauern als harmlose Untermieter im Wirtsorganismus. Gelegentlich konnte sich sogar ein innovatives, nützliches Virus-Gen in das Erbgut einnisten und zu einem permanenten und unverzichtbaren Bestandteil werden.

Viele der viralen Kopien wirken aber offenbar bei bestimmten Karzinomen oder Leukämie mit, andere bei ALS (amyotropher Lateralsklerose), multipler Sklerose, Schizophrenie oder Diabetes. Dabei ist allerdings unklar, ob sie die Ursache der Krankheit sind oder ob ihre Aktivität eine Begleiterscheinung ist.

Wenn Viren ihr Genom exprimieren und vervielfältigen, verändern sich durch Austausch und Rekombination oftmals Teile davon. Dies geschieht vermutlich schon seit drei Milliarden Jahren. Dadurch „erfinden“ Viren ständig neue Gene. Bei ihrer gewaltigen Zahl (geschätzt etwa 10 hoch 31 auf der Erde) und ihrer schnellen Replikationsrate (pro Sekunde etwa 10 hoch 24 neue Partikel) und hohen Mutationsrate gelten sie als die bedeutendste Quelle genetischer Information.

Erst in den letzten Jahren ist deutlich geworden, in welchem Ausmaß Mechanismen wie Gentransport und Gentransfer durch Viren, also Einbau von viralen Genen in das Genom des Wirtsorganismus, zur Veränderung bakterieller Genome beigetragen hat – auch zum Vorteil für den Wirt. (Wird beispielsweise bei Zyanobakterien ein bestimmtes zentrales Fotosynthese-Gen durch zu starke Sonneneinstrahlung geschädigt und nicht mehr hinreichend nachproduziert, kommt der Stoffwechsel der Zelle zum Erliegen. 2003 entdeckten Forscher im genetischen Gepäck von Viren, die Zyanobakterien befallen, eine eigene, wesentlich UV-resistentere Version des Enzyms. Das virale Fotosynthese-Enzym kann die Funktion des zerstörten Wirtsenzyms übernehmen.)

Durch Rekombination und Gentransfer veränderten die Viren mit der Zeit auch das Erbgut mehrzelliger Lebewesen massiv. Sie sorgten, wie auch Bakterien, immer wieder dafür, dass genetisches Material zwischen den Arten ausgetauscht wurde und sich so über Speziesgrenzen hinaus verbreiten konnte. Dadurch nahmen Viren maßgeblichen Einfluss auf deren Evolution, ja sie haben offenbar den Evolutionsprozess schneller vorantreiben können als andere Faktoren, die lediglich unter langsamer sich anhäufenden Erbgut-Varianten selektieren konnten. Neben Mutationen und epigenetischen Faktoren scheinen Viren damit der entscheidende Treibriemen der Evolution zu sein. Ohne Viren wäre die Vielfalt des Lebens auf der Erde nicht denkbar.

Manche Forscher halten das enorme evolutionäre Potenzial, welches das genetische Reservoir der Virosphäre – der Gesamtheit der Viren – enthält, sogar für den Grund, warum die Evolution das Eindringen von Fremdpartikeln in einem gewissen Maß zuließ. (Andere Forscher sehen den Grund allerdings darin, dass Schmarotzer das Genom einfach so häufig und massiv attackierten, dass es nicht gelang, sie völlig zu eliminieren.)

Auch in der Stammesgeschichte des Menschen spielten Viren eine bedeutende Rolle. So zeigten beispielsweise Forscher im Jahr 2000, dass Retroviren einst Bauanleitungen für Proteine in die DNA einschleusten, die heute dafür sorgen, dass sich bei einem Säugetier die Plazenta bildet und auf diese Weise der Nährstoffaustausch zwischen der Mutter und ihrem ungeborenen Kind sichergestellt ist.

Es leuchtet ein, dass eine so häufige und vielfältige „Lebensform“ auch unsere Ökosysteme mitgestaltet und einen erheblichen Beitrag zu deren Funktionieren leistet. So spielen Viren vermutlich eine wesentliche Rolle bei der Regulation des Kohlenstoff-, Stickstoff- und Phosphatkreislaufs. Ihre Vielfalt soll in diesem Zusammenhang auch eine indirekte Wirkung auf den Klimawandel haben, weil sie die Kohlenstoffpumpe der Ozean verändern.

Heute, in der Zeit von Covid-19, hält uns aktuell das enorme weltweite Erkrankungs-potenzial der Viren in Atem. Das, was wir heute erleben, scheint aber erst die Spitze des Eisberges zu sein, denn es schlummert noch eine weitaus größere Zahl der winzigen Erreger in anderen Lebewesen, die zum Teil noch gravierendere Auswirkungen haben können. Durch die höheren Populationsdichten von Arten und häufigeren Kontakten zu Menschen infolge der zunehmenden Vernichtung von Ökosystemen und natürlicher Vielfalt (Biodiversität) steigt das Risiko, dass Viren von Tieren auf Menschen übertragen werden und dort Krankheiten hervorrufen. Dringend erforderlich scheint es also zu sein, eine weitere Zerstörung der Umwelt aufzuhalten, um weitere Pandemien zu vermeiden.

REM

Danuvius guggenmosi – ein Urahn des Menschen?

Es fällt immer wieder auf, dass oft voreilige und teilweise spekulative Schlüsse aus Funden und wissenschaftlichen Untersuchungen gezogen werden. Die Entdeckung des „Danuvius guggenmosi“ genannten fossilen, aufrechtgehenden Menschenaffen, der vor über 11 Millionen Jahren im heutigen Ostallgäu lebte, kann sicherlich als Sensation betrachtet werden. Ihn aber in die direkte Evolution zum Menschen zu platzieren, erscheint dagegen zum jetzigen Zeitpunkt mehr als gewagt.

Die Entwicklung des aufrechten Ganges bei Primaten begann schon sehr früh in der Evolution – er scheint auch mehrfach entstanden zu sein. Darauf deuten beispielsweise 10 Millionen Jahre alte Beckenknochen, die man in Ungarn fand, hin, ebenso Skelettreste des „Dryopithecus laietanus“, eines fossilen Menschenaffen, der vor 9,5 Millionen Jahren in der Nähe des heutigen Barcelona lebte und der schon eine relativ aufrechte Körperhaltung besaß.

In der Evolution werden neue Eigenschaften häufig dadurch erworben, dass die betreffenden Organe zunächst für mehrere Funktionen geeignet sind. Solche Mehrfachfunktionen ermöglichen einen langsamen Wandel im Körperbau, ohne dass alle Teile gleichzeitig erfasst werden. Die Selektion sorgt dann dafür, dass eine Funktion an Bedeutung verliert oder sogar ganz wegfallen kann.

Bei Primaten kommen viele Erscheinungsformen des Kletterns vor, bei denen die gleichen Muskeln aktiviert werden wie beim Gehen. Das sogenannte Stemmgreifklettern wie auch das Aufrechtsitzen im Geäst gelten für viele Evolutionsbiologen als Präadaptationen für den Aufrechtgang. Als dieser sich entwickelte, war er daher anfangs noch mit der Fähigkeit zum Klettern verbunden.

Auch Danuvius guggenmosi war noch ein guter Kletterer – gleichzeitig hat er sich wohl auf Ästen zweibeinig fortbewegt, aber auch mit Armen von Ast zu Ast gehangelt. Seine vorderen Gliedmaßen waren noch vom Klettern dominiert, während die Hintergliedmaßen schon auf Zweibeinigkeit ausgerichtet waren. Zudem besaß er schon eine s-förmige Wirbelsäule, was entscheidend für das zweibeinige Gehen ist. Der Menschenaffe war ein Meter groß und wog gemäß den Funden zwischen 18 kg (Weibchen) und 31 kg (Männchen). Für einen so schweren Primaten ist zweibeiniges Gehen erstaunlicherweise ökonomischer als Vierbeinigkeit.

Der Primat soll in einer subtropisch warmen, waldigen Landschaft mit dichten Sümpfen und Flüssen und üppiger Ufervegetation gelebt haben. Er war, wie andere Urhominiden, wohl ein ökologischer Generalist, der mit den Verhältnissen am Boden ebenso zurecht kam wie mit denen am und im Wasser. Vielleicht hat sich dieser Menschenaffe im Fluss eine neue Nahrungsquelle erschlossen – und um im Wasser stehen und gehen zu können, musste er sich aufrichten. Möglicherweise wollte er aber auch nur an Früchte höherer Zweige gelangen.

Die letzten Jahre ist infolge einer größeren Zahl neuerer Funde, zu denen auch die vier Skelette des Danuvius guggenmosi aus der Tongrube „Hammerschmiede“ gehören, viel Bewegung in die Anthropologie gekommen. Es herrscht inzwischen eine große Vielfalt unter den frühen Hominiden. Aus dem Miozän* kennt man gut 100 Arten Großer Menschenaffen, darunter nicht wenige aus Eurasien. Sie wirken hinsichtlich Lebensraum und Lebensweise eher wie Varianten derselben Grundthemen.

*[Als Miozän bezeichnet man die Zeitepoche von vor circa 24 Millionen bis vor 5 Millionen Jahren. Aus Afrika und Asien drangen damals viele Tierarten über neu entstandene Landverbindungen nach Europa vor, was ein kompliziertes Wechselspiel von Verdrängung und Anpassung zur Folge hatte und die Zusammensetzung der Fauna in Europa veränderte.]

Eine gerade und direkte Stammeslinie vom affenähnlichen Lebewesen zum heutigen Menschen, dem Homo sapiens, hat es offenbar nicht gegeben . Die Natur hat heftig herumexperimentiert. Schwankungen des Klimas dürften sich vielfältig ausgewirkt haben. Ein bestimmter Körperbau, eine Ernährungsweise oder Art der Fortbewegung, die zu einer Zeit gut passten, waren zu einer anderen womöglich weniger ideal. Unsere biologische Entwicklung schritt also nicht gleichmäßig in derselben Richtung voran, sondern eher sporadisch mal hierhin, mal dorthin.

Merkmale wie aufrechter Gang, Gehirngröße Gebiss oder Hände haben sich in den einzelnen Populationen also unterschiedlich schnell entwickelt. Wenn diese dann irgendwann aufeinander trafen, trugen ihre Nachkommen Neukombinationen aus diesen Merkmalen. Man spricht von einer „Mosaik-Evolution“. Gleiche und ähnliche Merkmale bedeuten also nicht zwangsläufig eine Abstammungsverwandtschaft – nicht einmal dann, wenn die beiden Primaten zu verschiedenen Zeiten lebten. Viele Paläoanthropologen gehen daher heute von einem lockeren, ausladenden Stammbusch mit vielen verzweigten Ästen aus.

So hat sich auch der aufrechte Gang im Verlaufe der Primatenevolution wohl mehrfach entwickelt, als auch bei Primaten, von denen wir nicht abstammen. Daher ist es zumindest zu früh, davon zu sprechen, dass sich der Prozess der Entwicklung des aufrechten Ganges in Europa vollzog, geschweige denn davon, dass „Danuvius guggenmosi“ ein Vorfahre des modernen Menschen sei.

REM