Das Atom

Im antiken Griechenland standen sich zwei Denkschulen gegenüber. Für Platon beispielsweise war die Welt noch aus den vier Grundelementen Erde, Luft, Feuer und Wasser aufgebaut, die aber nicht unteilbar sind. Auch die Energie, bei ihm als das Element Feuer dargestellt, passte er in dieses Denkmodell ein – ein schon recht weit gedachter Denkschritt. Demgegenüber entwickelten der Naturphilosoph Leukipp und sein Schüler Demokrit einen revolutionären Gegenentwurf: Die gesamte Natur sei aus kleinsten unteilbaren Einheiten – elementaren Teilchen – zusammengesetzt, den Atomen (von griech.: atomos = unteilbar).

Im 19. Jahrhundert lieferte die chemische Forschung und vor allem die Entdeckung der Elektrolyse (beispielsweise Aufspaltung von Wasser in Wasserstoff und Sauerstoff) immer stärkere Argumente für die Atomtheorie. Der Chemiker John Dalton fand heraus, dass bei jeder chemischen Reaktion ein bestimmtes Mischungsverhältnis auftritt. Er folgerte daraus, dass jedes Element aus winzigen Teilchen mit einer bestimmten Masse und Größe bestehen müsse, die sich bei chemischen Umwandlungen nicht verändern.

Noch im ersten Jahrzehnt des letzten Jahrhunderts besaßen Physiker und Chemiker aber keine klare Vorstellung davon, wie Atome aussehen. Der Physiker Joseph John Thomson entdeckte 1897 das Elektron und stellte fest, dass jedes Atom offenbar aus einer geladenen Masse und umgekehrt geladenen Elektronen besteht, die wie Rosinen in einem Kuchen stecken. 1910 schlug Ernest Rutherford ein „planetares“ Modell des Atoms vor mit einer zentralen punktförmig konzentrierten Ladung, umgeben von einer gleichförmigen, sphärischen Ladungsverteilung des gleichen Betrages, aber entgegengesetzten Vorzeichens.

Aufgrund einer Konvention, die auf Benjamin Franklin zurückgeht, wurde die Ladung des Zentralbereichs als „positiv“ bezeichnet. Demnach umkreisen negativ geladene Elektronen auf diskreten Bahnen (also nicht beliebig) einen positiv geladenen Atomkern wie die Planeten unser Zentralgestirn. (Teilchen mit entgegengesetzer Ladung ziehen sich an!) Als man genauer hinschaute, entdeckte man, dass der Kern aus positiv geladenen Teilchen, den Protonen, und elektrisch neutralen Neutronen zusammengesetzt ist – Ausnahme Wasserstoff (s. u.).

Atome

Das gesamte Atom hat einen Durchmesser von etwa einem Hundertmillionstel (10-8) Zentimeter, etwa 10 000- bis 100 000-mal so groß wie der Durchmesser des Kerns. Damit man sich den Unterschied vorstellen kann: Hätte das Atom die Größer eines Golfplatzes (80 ha), wäre der Kern ungefähr so groß wie eines der Löcher (knapp 11 Zentimeter Durchmesser). In diesem relativ zum Kern riesigen, ungefähr eine Billion Mal so großen Raum bewegen sich die Elektronen. Es sind die gleichen Elementarteilchen, mit deren Hilfe elektrischer Strom übertragen wird und die man spürt, wenn man einen „gewischt“ bekommt.

Elektronen haben eine äußerst geringe Masse: 9,1094 x 10-28 Gramm. Die meisten Physiker sind überzeugt: Das Elektron hat keine messbare Ausdehnung – ein Massepunkt ohne innere Struktur, welcher der Elektromagnetischen Wechselwirkung unterliegt. Auch wenn Elektronen punktförmig sind, heißt das nicht, dass ihre Wechselwirkung und Aktion örtlich begrenzt ist. Sie können sich sozusagen ausstrecken, auf etwas wirken, das entfernt ist – eine Qualität, die nicht zu lokalisieren ist: das Feld.

Nach heutigem Wissen kreisen Elektronen also nicht um einen Kern wie Planeten um die Sonne. Die Quantenphysiker beschreiben das Elektron vielmehr als ausgedehntes Wellengebilde, das den Atomkern umspannt. Es ist sozusagen über das Volumen des Atoms „verschmiert“. Wo sich das Teilchen befindet, können die Wissenschaftler lediglich in Form einer Aufenthaltswahrscheinlichkeit angeben, die aus dem Quadrat der Wellenfunktion (Schrödinger-Gleichung) errechnet wird.

Den Gesetzen der Quantenmechanik zufolge können Elektronen nur bestimmte Energieniveaus besetzen, wo sie durch die relativ schwache Elektromagnetische Kraft gehalten werden. Ein solcher Bereich, über den sich ein Elektron als „stehende Welle“ ausbreitet, wird als „Schale“ bezeichnet. Diese entspricht einer bestimmten Energie des Elektrons. Da das Atomteilchen als „Fermion“ dem Pauli-Verbot gehorcht, demzufolge keine zwei Elektronen denselben Quantenzustand haben können, passt in jede Schale nur eine begrenzte Anzahl Elektronen. (s. u.)

Somit ist also der positiv geladene, winzige, aber massereiche Kern von einer Wolke negativ geladener Elektronen umgeben, die säuberlich in übereinander liegenden Schalen angeordnet sind. Die Elektronenhülle, die weniger als ein Promille zur gesamten Atommasse beiträgt, legt die Größe eines Atoms fest.

Die Atomkerne sind nur ein Billionstel (etwa 10-13) Zentimeter groß. Sie enthalten die Nukleonen (Kernteilchen), die extrem eng gepackt sind: Protonen und Neutronen. Sie machen mehr als 99,9% der Masse des gesamten Atoms und damit aller Dinge aus, wie sie uns im täglichen Leben umgeben.

Ein Proton scheint grob einer diffusen Kugel zu gleichen – mit einer Ausdehnung von weniger als einem Femtometer (100 Billiardstel Zentimeter) und einer positiven elektrischen Ladung (+1). Das Neutron ist ähnlich groß wie das Proton und nur geringfügig schwerer (0,14%) und elektrisch neutral. Protonen und Neutronen zählt man zur Teilchenfamilie der Hadronen (von altgriechisch: hadron = dick, stark), die der Starken Wechselwirkung unterliegen – einer zwischen den Bausteinen wirkenden starken Kraft kurzer Reichweite. Sie ist verantwortlich dafür, dass die Protonen trotz der abstoßenden elektrischen Kräfte zwischen ihnen (Teilchen mit gleicher Ladung stoßen sich ab) zusammenhalten.

Wegen der gegenseitigen Abstoßung der Protonen ist es aber für ein Proton leichter, an einem Neutron zu „kleben“ als an einem Proton. So können Protonen und Neutronen Paare, sogenannte Deuteronen, bilden. Neutronen sind demnach mitverantwortlich für den Zusammenhalt des Kerns. Sie nehmen am „atomaren Tanz“ der Protonen mit ihren Elektronen teil, aber lediglich über ihr magnetisches Moment – schließlich sind sie ungeladen.

Das einfachste Atom ist der Wasserstoff, der aus einem Proton im Kern und einem Elektron in der Hülle besteht. Allerdings kann auch er ein Neutron im Kern enthalten. Wir sprechen dann von „schwerem Wasserstoff“ oder Deuterium. Das nächsthöhere Element ist Helium: Es enthält einen Kern aus zwei Protonen und im Normalfall zwei Neutronen, der von zwei Elektronen umschwirrt wird. Helium ist somit etwa (fast) viermal so schwer wie Wasserstoff. Das Element mit drei Protonen im Kern heißt Lithium, dann folgen Beryllium (vier Protonen), Bor (fünf), Kohlenstoff (sechs), Stickstoff (sieben) und Sauerstoff (acht). So geht es weiter bis zum Uran, das 92 Protonen im Kern trägt. Es gilt als das schwerste natürlich vorkommende Element – abgesehen von kleinsten Spuren von Neptunium (93 Protonen) und Plutonium (94 Protonen) in der Erdkruste.

Das Atomgewicht, die Massenzahl eines Atoms, wird durch die Gesamtzahl von Protonen und Neutronen im Kern bestimmt. Die Nukleonen streben dabei ein relativ ausgeglichenes Verhältnis an, denn nur Atomkerne mit ungefähr gleich vielen Neutronen und Protonen sind stabil. Die kernphysikalischen Gesetze lassen weder einen zu großen Protonenüberschuss noch einen zu großen Neutronenüberschuss zu. Allerdings ist bei höheren Elementen eine leichte Tendenz zum Neutronenüberschuss vorhanden, da die Kraft der gegenseitigen Abstoßung der Protonen quadratisch mit ihrer Anzahl im Atomkern steigt. Bei 100 oder mehr Protonen im Kern überwiegt schließlich die elektrische Abstoßung und der Kern ist nicht mehr stabil und zerfällt in Bruchstücke. (Die massereichsten bisher synthetisierten Atomkerne haben sogar 118 Protonen, zerfallen allerdings nach Bruchteilen von Sekunden schon wieder.)

Es gibt auch eine Obergrenze für die Anzahl der überschüssigen Neutronen, ab der Atomkerne auseinander zu fallen beginnen: Die Tropflinie (die überzähligen Nukleonen tropfen aus dem Kern heraus). Wird ein Neutron freigesetzt, zerfällt es nach durchschnittlich 15 Minuten in ein Proton, ein Elektron und ein Neutrino. Daher müssen die Neutronen mit einer etwa gleichgroßen Anzahl von Protonen zusammenkommen, damit ihre Instabilität kompensiert wird.

Isotope

Atome mit gleich vielen Protonen, aber unterschiedlicher Zahl an Neutronen, werden als Isotope (griech.: isos = gleich; topos = Platz, Stelle) des gleichen Elements bezeichnet. So gibt es z. B. vom Helium eine seltene Form mit nur einem Neutron statt zwei (He-3). Der Sauerstoff hat Isotope mit jeweils acht, neun und zehn Neutronen im Kern. Beim Kohlenstoff existiert eine ebenfalls seltene Abweichung, die acht statt sechs Neutronen enthält (C-14). Die Stellung der Isotope im Periodensystem bleibt identisch; diese unterscheiden sich aber im Atomgewicht, sind also unterschiedlich schwer. Da sie gleich viele Elektronen in der Atomhülle besitzen (entsprechend der Zahl der Protonen), verhalten sich die Elemente chemisch identisch.

Manche Isotope mit überschüssigen (oder weniger) Neutronen sind instabiler als andere. Bei einem Überhang von Neutronen gehen die Isotope durch radioaktiven Zerfall (Beta-minus-Zerfall) in eine stabilere Konfiguration über – eines der einfachsten Beispiel der Schwachen Wechselwirkung. Dabei wird ein Neutron in ein Proton verwandelt, wobei ein Elektron und ein Antineutrino aus dem Kern herausgeschleudert werden. Obwohl das Zerfallsgesetz die statistische Lebensdauer einer Menge von radioaktiven Atomen derselben Sorte beschreibt („Halbwertzeit„), scheint der Zerfall selbst keine Ursache zu haben – ist also Zufall.

C-14 ist radioaktiv und zerfällt, indem sich hin und wieder eine Neutron in ein Proton verwandelt. Es hat eine Halbwertzeit von 5730 Jahren.

[Beim Beta-plus-Zerfall wandelt sich ein Proton unter Abgabe eines Positrons und eines Neutrinos in ein Neutron um. Der Vorgang stellt einen wichtigen Zwischenschritt bei der stellaren Kernfusion dar. Damit unsere Sonne in ihrem Inneren Licht und Wärme freisetzen kann, müssen dort jeweils vier Wasserstoffkerne (Protonen) in mehreren Schritten zu einem Heliumkern (He-4) verschmelzen. Aus zwei Wasserstoffkernen entsteht zunächst der Kern eines Deuteriumatoms, einem Isotop des Wasserstoffs, das neben dem Proton auch ein Neutron besitzt. Es muss bei dem Vorgang also ein Proton in ein Neutron umgewandelt werden. Würde der Beta-plus-Zerfall nicht stattfinden, entstünde auch im Inneren der Sonne kein Deuterium – und auch kein Helium, denn das entsteht in den nächsten Schritten aus zwei Deuteriumkernen. Weil die Schwache Kernkraft so schwach ist, läuft der Beta-plus-Zerfall sehr langsam ab. Darum leuchtet unsere Sonne so lange.]

Protonenlastige Atomkerne können ebenfalls durch radioaktiven Zerfall in stabilere Konfigurationen übergehen. Dies kann durch Abspalten eines Alpha-Teilchens (Helium-Kern) geschehen (Alphazerfall). Es entsteht ein anderes Element, das stabil ist oder seinerseits weiter zu einem stabileren Element zerfallen kann. So wandelt sich z. B. das radioaktive Uranatom U-238 durch Alphazerfall in ein Thoriumatom Th-234, welches dann weiter zerfällt.

Als Folge eines Alpha- oder Betazerfalls, die den Atomkern in der Regel in einen angeregten Zustand versetzen, können hochenergetische Photonen (Gammastrahlung) entstehen, mit denen der Kern seine überschüssige Energie abgibt. Alpha-, Beta- und Gammastrahlung sind aber nicht alles – inzwischen kann man neun verschiedene Arten von Radioaktivität unterscheiden. Ein Beispiel ist der Cluster-Zerfall, der dem Alphazerfall ähnelt. Dabei werden größere Kerne („Cluster“) als He-4 vom Mutterkern abgespalten. Beispielsweise kann der Radiumkern Ra-223 einen Kohlenstoffkern C-14 emittieren.

Atomkerne

Die Atomkerne sind lange rätselhaft geblieben. Der Grund ist, dass sie als Quantenobjekte schwierig zu untersuchen sind. Ihre Bestandteile sind komplex; zudem bestimmen drei der vier Grundkräfte der Natur gleichzeitig die Dynamik des Konglomerats. Anfang der 1930er Jahre hat George Gamow die Grundidee des Tröpfchenmodells entwickelt. Demzufolge hat der Atomkern Ähnlichkeit mit einer viskosen Flüssigkeit: Man kann ihn wie einen Wassertropfen verformen, aber er nimmt stets denselben Raum ein.

Heute wissen wir, dass Neutronen und Protonen im Kern gemäß den Quantengesetzen in verschiedenen Energieschalen angeordnet sind – analog zu den Schalen der Elektronen in der Atomhülle. (Die Ähnlichkeit zwischen Elektronen- und Kernschalen ist allerdings begrenzt, weil im Kern zwei Teilchenarten sind und die Starke Kernkraft wirkt.) Sowohl in der ersten Protonenschale als auch in der ersten Neutronenschale gibt es je zwei Plätze für die jeweiligen Nukleonen. Im Heliumkern He-4 sind diese beiden Schalen gerade aufgefüllt – deshalb ist er besonders stabil. Fügt man aber eine weiteres Proton bzw. Neutron hinzu, erhält man einen äußerst instabilen Kern, der innerhalb einer Trilliardstel Sekunde zerfällt.

In den meisten Fällen organisieren sich die Nukleonen als Quantenflüssigkeit. In diesem Aggregatzustand ist die Wechselwirkung zwischen ihnen beträchtlich und Neutronen und Protonen schließen sich immer wieder für sehr kurze Zeit zusammen – man sagt, sie verschmelzen zu einer Art Tanzpaar, das sich deutlich schneller als die übrigen Partikel bewegt. Im zeitlichen Mittel dreht sich je rund ein Viertel der Kernteilchen im Tanz.

Neben Quantenflüssigkeiten und Kernmolekülen können Atomkerne noch andere, exoterischere Zustände einnehmen und sogenannte Halos bilden. Vor allem neutronenreiche Kerne weisen eine Halostruktur auf. Sie entsteht, wenn die Nukleonen nur schwach gebunden sind.

Feinstruktur

In den 1960er Jahren glaubten noch viele Physiker, die Bausteine der Atomkerne, also Protonen und Neutronen, seien so etwas wie kleine Kügelchen, durch und durch mit derselben Materie angefüllt. Aber je tiefer der Blick ins Innere eines Nukleons gelang, desto komplizierter wurden die Verhältnisse. Inzwischen weiß man, dass in den Nukleonen jeweils drei Massekonzentrationen existieren, die man heute Quarks nennt. Ein Proton enthält zwei up-Quarks und ein down-Quark (uud), das Neutron zwei down- und ein up-Quark (ddu). Die beiden Quark-Arten heißen Valenzquarks, da sie den Teilchen ihre äußeren Eigenschaften wie Teilchenart und Ladung verleihen.

Das up-Quark trägt eine nicht ganzzahlige Ladung, gemessen an der Gesamtlage des Nukleons: +2/3. Die Ladung des down-Quarks beträgt ein Drittel der Ladung des Elektrons: -1/3. Die Ladungen der beiden Kernteilchen ergeben sich dann aus der Summe der Quarkladungen (Proton: 1; Neutron: 0). Obwohl das Neutron elektrisch neutral ist, hat es aber z. B. magnetische Eigenschaften (wie das Proton).

Das einfache Quarkmodell beschreibt aber nur in grober Näherung eine hochkomplizierte Wirklichkeit in einem Nukleon. Um das Quark-Trio wabert ein See aus kurzlebigen Quark-Antiquarkpaaren, die spontan entstehen, für einen flüchtigen Moment existieren und gleich wieder verschwinden.* Diese sogenannten virtuellen Quarks bezeichnet man auch als Seequarks. Hinzu kommen im Nukleon umherwirbelnde Gluonen (Klebeteilchen), die die Quarks zusammenhalten. Dabei wechselwirken die Gluonen auf äußerst komplexe Weise auch miteinander.

*Quarks und ihre Antiteilchen unterscheiden sich dadurch, dass manche ihrer Eigenschaften denselben Betrag, aber unterschiedliche Vorzeichen besitzen. Sie können sich gegenseitig auslöschen. – Neben up- und down-Quarks, sogenannte Quarks der ersten Generation, blitzen auch immer wieder Vertreter höherer Elementarteilchengenerationen auf, die sonst nicht im Kern vorkommen.

Protonen und Neutronen enthalten also eine brodelnde Suppe aus realen und virtuellen Teilchen und Antiteilchen sowie Gluonen. Die drei Valenz-Quarks bestimmen zwar einige wichtige Eigenschaften des Kernteilchens, wie seine elektrische Ladung, nicht aber andere Kenngrößen wie z. B. seine Masse. Diese setzt sich aus den über Gluonen verbundenen Quarks (lediglich 5%), aus den virtuellen Seequarks (Quark-Antiquark-Paaren) und aus der Wechselwirkungsenergie (Bindungsenergie) des Gesamtsystems zusammen.

Grundlagen der Chemie

Eine für die gesamte Quantenphysik fundamentale Größe ist der Spin (eine bestimmte innere Quantität), der eine zentrale Rolle im Atom spielt. Er ist eine natürliche Konsequenz aus der richtigen Anwendung von Einsteins Relativitätstheorie auf die Quantenmechanik. Man kann ihn sich vorstellen als eine ständige Rotation eines Teilchens um seine eigene Achse. Da alle Objekte, die sich um ihre Achse drehen oder um einen festen Punkt bewegen, Drehimpuls haben, wird der Spin auch manchmal als „Eigendrehimpuls“ eines Elementarteilchens bezeichnet. In Wirklichkeit haben Spins mit Eigenschaften rotierender Körper in der makroskopischen Welt absolut nichts zu tun. Aber es ist die einzige Möglichkeit, überhaupt eine Vorstellung von dieser Eigenschaft der Quantenteilchen zu bekommen.

Die recht seltsamen Eigenschaften des Spins finden auch praktische Anwendung: u. a. in Kernspintomografen: Da mit dem Spin auch immer ein magnetisches Moment verbunden ist, richten sich Fermionen in Magnetfeldern wie Kompassnadeln aus. So lassen sich z. B. Ortsinformationen gewinnen oder Hirnaktivitäten bildlich darstellen.

Dem Spin der Elektronen, die wie alle Fermionen einen halbzahligen Eigendrehimpuls (1/2 h) besitzen, verdanken wir letztlich nichts weniger als unsere Existenz. Innerhalb einer Elektronenschale gibt es jeweils eine bestimmte Zahl von Bereichen (Orbitalen), die gemäß dem Pauli’schen Ausschlussprinzip nur bis zu zwei Elektronen (mit Spin +1/2 und -1/2) aufnehmen können. Daher ist das Pauli-Prinzip („Keine zwei Fermionen können gleichzeitig und an demselben Ort denselben Quantenzustand haben“) ein Grund für die Stabilität der Atome. Ohne dieses quantenmechanische Gesetz würden alle Atome auf ein Zehntausendstel ihres Volumens zusammenschnurren. Es gäbe keine chemischen Elemente, also keine Materie, wie wir sie kennen.

Weil die Elektronenschalen den Kern weitgehend von der Außenwelt abschirmen, hängt die Art und Weise, wie sich Atome zu Molekülen zusammensetzen – also die Chemie -, fast vollständig von der Zahl und Verteilung der Elektronen in den Außenbereichen der Atome ab. Diese Valenzelektronen bestimmen, wie reaktionsfreudig ein Element ist. Konfigurationen mit komplett gefüllten Schalen, z. B. die Edelgase, sind besonders stabil. Um einer solchen Konfiguration eine Elektron zu entreißen, braucht es besonders viel Energie.

Für das Wasserstoff-Atom wäre eine Hülle mit zwei Elektronen der optimale Zustand. Es besitzt aber nur eines – folglich strebt es zur Vervollkommnung. Daher kommt Wasserstoff unter normalen Bedingungen fast nie in Form einzelner Atome vor, sondern zumeist als Wasserstoff-Molekül H2. Die dann gemeinsam um beide Atomkerne „kreisenden“ Elektronen umschließen die Kerne und bringen sie, gezogen durch das Elektronenband, näher aneinander – aber nicht über einen bestimmten Abstand hinaus, denn dann überwiegt die Abstoßung zwischen ihnen.

Weil die Hüllen bei vielen chemischen Elementen nicht vollkommen sind, schließen sie sich mit anderen zusammen – sie gehen Bindungen ein, um den Mangel auszugleichen. Dabei nutzen die Partner Elektronen gemeinsam, wobei ein Teil durch die Elektromagnetische Kraft in Energie verwandelt wird, die im Allgemeinen in Form von Photonen abgegeben wird. Das so geschaffene System (Molekül) hat also weniger Masse als die Summe der ursprünglichen Teile und ist allgemein auch komplexer.

Das Sauerstoff-Atom besitzt acht Elektronen, die auf zwei Schalen verteilt sind, zwei in der inneren und sechs in der äußeren. Dadurch besitzt es in der äußeren Schale (4 Orbitale) zwei Elektronen zu wenig und sucht nach Ergänzung, z. B. ein anderes Sauerstoff-Atom oder ein passendes Molekül. Viele wichtige Elemente verhalten sich wie Sauerstoff und streben die Anzahl von acht Elektronen in der äußeren Schale an. Kohlenstoff (vier Elektronen fehlen, daher besonders reaktiv), Stickstoff und Fluor etwa, Silizium, Phosphor und Schwefel sowie Natrium und Magnesium.

Durch ihr Verhalten bestimmen also die Elektronen, die über elektromagnetische Wirkungen nicht nur mit den Kernen, sondern auch miteinander verbunden sind, sehr viele chemische Phänomene. Physiker verstehen inzwischen sehr gut, wie sich die Elektronen anordnen und wie die Eigenschaften der materiellen Welt aus diesen Strukturen hervorgehen.

Fazit

Über mehrere Zwischenstufen haben die Physiker die Natur, die sie vorfinden, in immer kleinere Einheiten zerlegt. Heute werden Atome nicht mehr als harte, unzerstörbare, undurchdringliche Körper gesehen, sondern als zusammengesetzte Systeme, die aus vielen Teilchen bestehen. Das erklärt für sich genommen noch nicht die Unterschiede in den makroskopischen Gegenständen. Dass diese Eigenschaften haben und insbesondere verschieden sind, liegt nur daran, dass die Punktteilchen, aus denen sie zusammengesetzt sind, in unterschiedlichen räumlichen Beziehungen zueinander stehen. Letztlich aber scheinen die Dinge in Wirklichkeit gar keine Dinge, sondern Formen zu sein, fassbar nur als Gewoge von Energie.

REM

Kipp-Punkte im Klimasystem

Ein Kipp-Punkt ist definiert als ein kritischer Grenzwert, an dem eine kleine zusätzliche Störung zu einer qualitativen Veränderung in einem System führen kann. Da die Kipp-Elemente sehr nicht-linear reagieren, ist das Erreichen eines Kipp-Punkts in den meisten Fällen nicht vorhersagbar. Die Forscher können höchstens sagen: Das Risiko besteht. Warum solche Kipp-Punkte in verschiedenen Systemen auftreten, ist unbekannt.

Das irdische Klima ist ein solches System. Lange Zeit reagieren die Kipp-Elemente oft nur wenig auf Klimastress, aber irgendwann kommt es dann schon bei einer geringfügigen Zunahme eines Klimafaktors zum Umkippen. Ist die kritische Schwelle einmal überschritten, entsteht eine sich selbst verstärkende Entwicklung, in deren Folge sich das Klima qualitativ verändert. Das gesamte System kippt in einen anderen Gleichgewichtszustand, der wiederum Jahrtausende anhalten kann.

Wo sich der Kipp-Punkt für das irdische Klima befindet bzw. wie weit wir davon entfernt sind, wissen wir nicht. Es gibt keinen scharfen Grenzwert, sondern lediglich einen Unsicherheitsbereich, in dem mit steigender globaler Temperatur das Risiko wächst, den Kipp-Punkt zu überschreiten. Selbst Skeptiker unter den Forschern leugnen nicht die Gefahr, dass der heutige Anstieg der Temperaturen aufgrund des menschengemachten Klimawandels die Klimamaschine des Globus über die Schwelle treibt, hinter der das Ganze System chaotisch zu werden droht. Langfristig wäre eine „Heißzeit“ mit vier bis fünf Grad höheren Temperaturen und einem Meeresspiegelanstieg um 10 bis 60 Meter die Folge, warnen Forscher.

Die Wahrscheinlichkeit, dass dieser Fall eintritt, ist derzeit noch klein; trotzdem sind schon einzelne Dominosteine dabei, zu fallen. Manche Effekte sind bereits unumkehrbar. Das Problem für uns ist, dass wir erst hinterher sicher sagen können, dass ein Kipp-Punkt erreicht ist oder überschritten wurde. Die Daten sind zwar linear und vorhersagbar genug, um den Projektionen Glaubwürdigkeit zu verleihen, doch zugleich in einem Maße nichtlinear und unvorhersagbar, dass wir die katastrophalen Konsequenzen des anthropogenen Klimawandels möglicherweise unterschätzen und nicht rechtzeitig gegensteuern.

Die Wissenschaftler haben inzwischen 16 Kipp-Elemente im Klimabereich entdeckt, bei denen wir dem Kollaps schon sehr nahe sind. Es besteht die Gefahr, dass sie das Klima – auch ohne weitere Emissionen – immer weiter in eine fatale Richtung treiben, zumal sie sich gegenseitig aufschaukeln können. Fünf globale Kipp-Elemente könnten sogar schon heute die kritische Schwelle erreicht haben oder ihr sehr nahe sein: Die Eisschilde Grönlands und der Westantarktis, der Amazonas-Regenwald, Teile des arktischen Permafrosts und die Atlantische Umwälzströmung. Sie sind aller Wahrscheinlichkeit nach damit für die Zukunft der Menschheit entscheidend.

Arktis und Grönland

Schon 2007 hat gemäß einer Studie die Arktis einen kritischen Punkt überschritten und ist in einen grundsätzlich anderen Zustand übergegangen. Damals ging der Anteil des über vier Meter dicken Alteises um mehr als die Hälfte zurück. Da die Veränderung auf einem höheren Wärmegehalt des Ozeans beruht – der wiederum durch weniger Meereis weiter ansteigt* -, liegt es nahe, dass sie dauerhaft ist. Noch wird allerdings der Begriff „Kipp-Punkt“ vermieden, weil man zuerst die gesamten Auswirkungen der Veränderungen erforschen will. Klimaforscher erwarten aber nach den vorliegenden Daten, dass die Arktis bis 2100 im Sommer eisfrei wird.

*Durch den Schwund von Meereis absorbieren große Wasserflächen besonders viel Sonnenlicht. Die so aufgenommene Wärme lässt weniger neues Eis entstehen, so dass mehr Wasser im Sommer eisfrei ist. Man bezeichnet das als Eis-Albedo-Rückkopplung.

Der Verlust des arktischen Meereises erhöht das Risiko dramatisch, dass ein weiterer Kipp-Punkt ausgelöst wird: der Verlust des Grönländischen Eisschilds. Dieser stellt die zweitgrößte zusammenhängende Inlandseismasse nach dem Antarktischen Eisschild dar und erreicht eine Höhe von mehr als 3000 Meter. In den Höhenlagen des Grönländischen Eisschilds war das erste Jahrzehnt des 21. Jahrhunderts das wärmste bislang dokumentierte seit rund 1000 Jahren. Die Temperatur lag im Mittel sogar um 1,5 Grad höher als im Durchschnitt des 20. Jahrhunderts.

Manche Forscher interpretieren die statistischen Daten als Indiz, dass der Grönländische Eisschild dabei ist, in einen Teufelskreis zu geraten und irreversibel zu schmelzen. Hat die Temperatur einen kritischen Wert überschritten, beginnt nämlich die Schmelze an der Oberfläche des Eises den Masseschwund zu bestimmen und der Eispanzer schmilzt umso schneller, je dünner er wird – bis er vollständig abgetaut ist. Gemäß Simulationen wäre das Eis unter Annahme eines pessimistischen Emissionsszenarios bis zum Jahr 3000 völlig verschwunden.

Allerdings sind diese Aussagen noch mit großen Unsicherheiten behaftet, denn das Verhalten der Eiskappen ist relativ rätselhaft. Deshalb wagen die Forscher auch keine Vorhersage, wie nah wir wirklich an diesem Kipp-Punkt sind und wann der Teufelskreis merklich zu greifen beginnt. Der Weltklimarat verortet die Schwelle grob bei einem globalen Temperaturanstieg zwischen ein und vier Grad (derzeit 1,5 Grad). Unbekannt ist auch, ob das Eis tatsächlich komplett abschmelzen würde – oder ob es einen weiteren stabilen Gleichgewichtszustand bei einer geringeren Eisdecke gibt.

Aber selbst wenn die ganze Welt sofort aufhörte, fossile Brennstoffe zu nutzen, würde der Grönländische Eisschild in den kommenden Jahrzehnten rund 100 Billionen Tonnen Eis verlieren. Dieser Schmelzwasserabfluss hat Einfluss auf die Erhöhung des Meeresspiegels. Ein global gemittelter Meeresspiegelanstieg von mindestens 27 bis zu mehr als 50 Zentimetern sind wohl unausweichlich. Setzt sich die globale Erwärmung fort wie bisher, wird der Zuwachs noch weit höher ausfallen.

Der Anstieg des Meeresspiegels ist auch aus einem anderen Grund ein ernstes Problem für kommende Generationen. Denn da der Ozean sehr träge auf Veränderungen reagiert, macht sich der derzeitige Klimawandel erst mit einer Verzögerung von mehreren Jahrhunderten bemerkbar. Damit könnte der Meeresspiegel mit jedem Grad Erwärmung in den nächsten beiden Jahrtausenden um 2,30 Meter steigen. Das heißt: Selbst wenn es gelingt, den Temperaturanstieg auf zwei Grad zu begrenzen, steigt das Wasser stetig weiter.

Westantarktis

Indizien verdichten sich, dass es langfristig auch auf dem Südozean weniger Eis geben wird. Der Westantarktische Eisschild ist bereits instabil geworden. Ein mögliches Anzeichen, dass das antarktische Meereis tatsächlich schon eine Art Kipp-Punkt erreicht haben könnte, ist eine höhere Schwankungsbreite in der Meereisbedeckung. Außerdem schlägt sich die Eisausdehnung der Saison immer stärker im nächsten Jahr nieder („Autokorrelation„). Die Kombination von höherer Schwankungsbreite und zunehmender Autokorrelation ist in vielen Systemen ein allgemeines statistisches Zeichen dafür, dass ein Übergang in einen neuen Zustand bevorsteht.

Vermutlich hat der entscheidende Einfluss auf das Meereis gewechselt. Während noch während des 20. Jahrhunderts die Atmosphäre darüber entschied, wie weit sich das Eis nach Norden ausbreitet, bestimmt seit etwa 2015 warmes Oberflächenwasser im Südozean die Eismenge. Die Folge ist der deutliche Rückgang des antarktischen Meereises. Zukünftige geringe Meereisbedeckungen rund um die Antarktis könnten den Trend womöglich noch verstärken.

Wärmeres Wasser, weniger Meereis und mehr aufgenommene Sonnenergie könnten also nach und nach auch die Südpolarregion bis zur Unkenntlichkeit verändern. Allerdings: Die Weiten des immensen Südozeans und die gewaltigen Eisreserven auf dem Kontinent sorgen dafür, dass wirklich drastische Veränderungen in der Region sich über Jahrzehnte abspielen. Doch schon kleine Veränderungen können weltweite Folgen haben, denn die Antarktis ist zwar abgelegen, aber keineswegs isoliert. Der Südozean spielt vielmehr eine entscheidende Rolle für das weltweite Strömungssystem in den Meeren (siehe unten).

Der Energiehaushalt der Polarregion beeinflusst das Wetter bis in die Tropen. Da die Antarktis jetzt immer mehr Wärme aufnimmt und sich gleichzeitig die Abstrahlung nicht verändert, kommt der Strom von Energie von den Tropen (hohe Sonneneinstrahlung) in höhere Breiten ins Stocken, der z. B. auch den Jetstream und die Tiefdruckgebiete in Europa antreibt.

[Während einer als „Meltwater Puls 1A“ bezeichneten Warmphase am Ende der letzten Eiszeit stieg der Meeresspiegel vor etwa 14 000 Jahren für mehrere Jahrzehnte, wenn nicht für Jahrhunderte, um bis zu sechs Zentimeter pro Jahr. Am Ende dieser Phase war er rund 20 Meter höher als zuvor. Indizien deuten darauf hin, dass ein großer Beitrag des abrupten Meeresspiegelanstiegs von den recht plötzlich kollabierenden Rändern der antarktischen Eisschilde stammte. Zuvor waren dort die Temperaturen über lange Zeiträume deutlich gestiegen, ohne dass die Gletscher in gleichem Maße Eis verloren. Ein vergleichbarer Kollaps der Eisschilde könnte auf der Erde prinzipiell erst in Jahrhunderten auftreten – oder gar bereits beginnen.]

Amazonas-Regenwald und Monsun

Auch der brasilianische Regenwald und der Indische Monsun gelten als Exempel für Subsysteme des Klimas, die von einer plötzlichen desaströsen Entwicklung bedroht sind. So könnte eine Erhöhung der globalen Temperaturen um zwei Grad zum Wechsel von schwachen und sehr starken Monsunen – mit extremen Dürren oder Flutkatastrophen – und schließlich vielleicht sogar zum dauerhaften Ausbleiben des Indischen Monsuns führen. (Ab einer Erhöhung der Temperaturen um drei Grad könnte auch der Westafrikanische Monsun unwiederbringlich verändert werden.)

Schon heute verliert der Amazonas-Regenwald seine Resilienz. Er benötigt immer länger, um beispielsweise nach einer Trockenperiode zum Ursprungszustand zurückzukehren. Dies deutet darauf hin, dass die Rückkopplungen, die den Zustand des Waldes langfristig konstant halten, nur noch eingeschränkt funktionieren. Dadurch wird das Umkippen des Systems in einen irreversiblen Zustand begünstigt. Wenn rund 20% des Regenwaldes verschwunden sein wird, ist die kritische Schwelle erreicht. Das soll nach verschiedenen Untersuchungen bereits der Fall sein.

Wenn der Amazonas-Regenwald gänzlich fehlt, ist damit nicht nur auch sein Artenreichtum und eine wichtige Kohlenstoffsenke verschwunden, sondern es geht auch die Wechselwirkung mit dem Atlantik verloren. Die Wolken, die von dort kommen, regnen über dem Wald ab; das Regenwasser wird im Erdreich oder im Kronendach gespeichert, von wo es abermals verdunstet und so immer tiefer ins Landesinnere vordringt. Die inzwischen eingetretenen längeren Trockenperioden und extremeren Regenfälle haben bereits das Artenspektrum verändert.

Permafrost

Fallen Kipp-Elemente, könnten leicht weitere wie Dominosteine folgen. Zu ihnen gehört der Permafrostboden. Die Forscher warnen, dass tauender Permafrost (auch ein nichtlineares System) in den nächsten 30 Jahren für den Klimawandel eine doppelt so große Rolle spielen könnte wie bisher angenommen. Denn beim Abtauen werden große Mengen an Kohlenstoffdioxid freigesetzt, das den Klimawandel weiter antreibt, was wiederum Waldbrände wahrscheinlicher macht und damit noch mehr Kohlenstoffdioxid freisetzt. Außerdem wird aus auftauenden Permafrostböden massiv Methan freigesetzt, was zusätzlich unabsehbare Konsequenzen für das Klima haben könnte.

Meeresströmungen

Eine neue Studie stützt nun darüber hinaus Befürchtungen, dass das großräumige System der Meeresströmungen unter den Folgen des Klimawandels sogar völlig zusammenbrechen könnte. So wäre es möglich, dass beispielsweise die Meeresströmungen im Pazifik, die die weiträumige Temperaturverteilung an der Meeresoberfläche bestimmen – welche wiederum über das regionale Wettergeschehen entscheidet -, unberechenbar werden. Die Effekte von El Nino und der südlichen Oszillation, ein komplex gekoppeltes Zirkulationssystem von Atmosphäre und Meeresströmungen im äquatorialen Pazifik, könnten sich künftig häufen – mit der Folge von Dürren in Australien und Südostasien und Sturzregen im Westen Amerikas.

Der Verdacht liegt nahe, dass die globale Erwärmung den Atlantik bereits zu verändern beginnt. Seit Mitte des 20. Jahrhunderts hat die Zirkulation des Golfstrom-Systems um rund 15% an Schwung verloren, womöglich einmalig in den letzten 1000 Jahren. Diese nordatlantische Strömung wird von Dichteunterschieden infolge von Differenzen in Salzgehalt und Temperatur verursacht („thermohaline Zirkulation„). Infolge der Klimaerwärmung nimmt, vor allem durch die Eisschmelze, der Süßwassereintrag zu. Das salzärmere Wasser ist leichter als salziges Wasser und sinkt daher nicht so leicht in die Tiefe ab. Damit verringert sich der Antrieb und die Strömung erlahmt. Weiteres mit Süßwasser verdünntes Wasser sammelt sich vermehrt an der Oberfläche, was wiederum den Antrieb der Umwälzung weiter schwächt. Ab einem gewissen kritischen Punkt wird das zum unaufhaltsamen Teufelskreis.

Wo dieser Kipp-Punkt genau liegt, ist nach wie vor unklar. Die beiden jüngsten Berichte des IPCC kommen zu dem Schluss, dass mit einer Wahrscheinlichkeit von mindestens 90% mit einer deutlichen Abschwächung des Strömungssystems in diesem Jahrhundert zu rechnen ist. Der Kipp-Punkt würde demnach aber noch nicht überschritten. Allerdings streuen die allermeisten Modelle stark – was nicht überrascht, da die Stabilität der Atlantikströmung von der subtilen Balance im Süßwasserhaushalt abhängt, die jedoch nur recht ungenau berechenbar ist. Daher sind die von den Klimamodellen berechenbaren Zugewinne durch Flüsse, schmelzendes Eis und Niederschläge sowie die Verluste durch Verdunstung mit großen Ungenauigkeiten behaftet.

Viele Experten haben den Verdacht, dass die Zirkulation in den Modellen stabiler ist als in der Realität – und die Klimamodelle hier systematisch danebenliegen. Diese berücksichtigen nämlich meist nicht, wie sich das schmelzende Grönland-Eis, welches das Atlantikwasser zusätzlich verdünnt, auf die atlantische Umwälzung auswirkt. Alles in allem deutet vieles darauf hin, dass das Golfstrom-System nicht nur instabiler sein könnte als lange gedacht, sondern der Weg zum Niedergang auch schon begonnen hat. Daher schließen manche Experten nicht aus, dass der Golfstrom irgendwann ganz zum Stillstand kommt. Während der letzten Eiszeit passierte das ein halbes Dutzend Mal – immer dann, wenn große Eismassen ins Meer rutschten. In einem solchen Fall würde sich unser heutiges Klimasystem jedenfalls vollends verändern.

Zwar halten Experten selbst nach dem Aussetzen des Golfstroms eine neue Eiszeit im Norden für unwahrscheinlich, trotzdem könnte der Temperatursturz viel stärker ausfallen als bei der Kleinen Eiszeit im Mittelalter. Noch schlimmer als der möglich Kälteeinbruch im Norden wären vermutlich seine Auswirkungen auf andere Erdregionen. In den Monsungebieten Afrikas und Asiens würden, wenn der Nordatlantik kälter ist als die ihn umgebenden Landmassen, die jahreszeitlichen Niederschläge gering ausfallen und es träten vermehrt Dürren auf. Schon beim Erlahmen des Förderbandes könnte die damit verbundene Abkühlung ausreichen, um eine solche Trockenheit hervorzurufen. Kräftiger Wind würde die Situation noch verschärfen. Viele Regionen der Südhalbkugel würden sich deutlich erwärmen. Der Klimawandel insgesamt wäre also nicht gebremst, sondern die Wärme würde nur anders verteilt.

Gefahr für Ökosysteme

Nicht nur, dass schon geringe Veränderungen des Klimas unkontrollierbare selbstverstärkende Prozesse auslösen können. Hinzu kommt auch eine erdgeschichtlich beispiellose Vielfalt an zusätzlichen ökologischen Stressfaktoren, die von uns Menschen ausgehen – darunter Abholzung, Wilderei, Überdüngung, Biotopzerstörung und Einschleppung invasiver Arten.

So trägt beispielsweise der vermehrte Nährstoffeintrag in die Ozeane aufgrund menschlicher Aktivitäten zur stärkeren Schichtung des Meeres bei. Warmes Wasser liegt als Folge wie ein Deckel auf kälterem und verhindert dessen Auftrieb und eine Durchmischung. Unter solchen Bedingungen herrschen an der warmen Oberfläche Dinoflagellaten vor, mit denen Häufigkeit und Ausmaß giftiger Algenblüten an Küsten zunehmen. Dies wiederum wirkt sich auf Zugvögel, Fischbruten und Schalentiere verheerend aus.

Die Wissenschaftler rechnen mit schweren Folgen für die Ökosysteme. Zwar sind Organismen mit hohen Populationsdichten und kurzen Generationszeiten in der Lage, sich schnell an veränderte Bedingungen anzupassen. Langlebige Arten mit weniger Nachkommen pro Generation haben dagegen ein weitaus schlechteres Anpassungsvermögen. Wenn ein Ökosystem aber mehrere besonders stark vernetzte Arten verliert, kollabiert es unweigerlich. Schon heute drohen wichtige Nahrungspyramiden völlig aus dem Gleichgewicht zu geraten. Viele von ihnen basieren auf dem Phytoplankton. Wegen ihres kurzen Lebenszyklus von etwa sechs Tagen reagieren diese Organismen sehr schnell auf Umweltveränderungen. Die Phytoplanktonproduktion hat nach neuesten Berichten in den vergangenen 100 Jahren weltweit deutlich abgenommen. Da die Organismen vielen anderen Arten als Nahrung dienen, befürchten Forscher, dass das gesamte Ökosystem kippen könnte.

Zwischen 1995 und 2017 hat das australische Great Barrier Reef einen guten Teil seiner Korallen verloren. Auslöser waren den Forschern zufolge mehrere Zyklone, Korallenbleichen und zeitweise Vermehrung von Seesternen, die sich von Korallen ernähren. Daneben nehmen die Meere aber auch immer mehr Kohlenstoffdioxid auf, wodurch das Wasser versauert. Die Korallen können in der Folge ihr Kalkskelett schlechter aufbauen. Korallenbleichen, Meeresversauerung und immer neue Rekordtemperaturen sind inzwischen alltäglich geworden.

Die Argumente mancher Leugner des Klimawandels, auch in der Vergangenheit hätten sich die Organismen oft an neue Gegebenheiten anpassen müssen, greift in der gegenwärtigen Situation zu kurz. Die Lebensbedingungen verändern sich in nie dagewesener Geschwindigkeit. In den vergangenen 500 Jahren verschwanden vor allem durch menschliche Einwirkungen Tier- und Pflanzenarten 100- bis 1000-mal schneller oder waren vom Aussterben bedroht, als es in einem funktionierenden Ökosystem der Fall sein dürfte. Nach Schätzungen des Biologen Edward O. Wilson verschwinden zurzeit weltweit bis zu 30 000 Arten pro Jahr auf Nimmerwiedersehen. Das entspricht drei Arten pro Stunde. Von vermutlich acht Millionen existierenden Tier- und Pflanzenarten drohen rund eine Million verlorenzugehen, ein Teil davon bereits in den kommenden Jahrzehnten. Fest steht: Nie zuvor in den letzten paar Dutzend Millionen Jahren war die Aussterberate höher als heute.

Vieles deutet sogar darauf hin, dass sich Flora und Fauna unseres Zeitalters in rasendem Tempo den Merkmalen früherer Aussterbewellen nähern. Allein die anhaltende menschengemachte Erwärmung erinnert an die Erwärmung am Ende des Perm und ebenso der Trias. Die damaligen Aussterbewellen lehren uns auch, dass sich höhere CO2-Werte erst auf sehr lange Sicht wieder einpendeln – wir reden hier von hunderttausenden Jahren. Die Folgen des sechsten Massenaussterbens werden also viel länger anhalten als Zeit nötig war, um es in Gang zu setzen.

Den Kipp-Punkt, der Ökosysteme vollständig zusammenbrechen lässt, können wir nicht vorhersagen. Aber er wird das unvermeidliche Ergebnis sein, wenn wir die Klimaerwärmung nicht in Griff kriegen und den Verlust der biologischen Vielfalt umkehren. Bereits bei einem Überschreiten von einem Grad Erwärmung gegenüber der vorindustriellen Zeit könnte der Kipp-Punkt erreicht sein, meinen einige Forscher.

Gefahren für die Menschheit

Weitere Kipp-Punkte im Erdsystem stellen gravierende Risiken für die Menschheit dar. Einige betreffen lebensnotwendige Systeme wie die Grundwasserversorgung, die in einige Ländern bereits vor dem Kollaps steht. Da aus mehr als der Hälfte der großen Grundwasserspiegel der Erde mehr Wasser entnommen wird als sich auf natürliche Weise wieder auffüllen kann, können manche Wasserquellen versiegen. In Saudi-Arabien wurde der Kipp-Punkt der Grundwasserschöpfung schon erreicht.

Die Trinkwasserversorgung von vielen Menschen hängt von den Schmelzwassern der Gletscher ab. Aufgrund der Klima-Erwärmung schmelzen diese – bis auf wenige Ausnahmen – weltweit doppelt so schnell wie in den vergangenen 20 Jahren, was zum Anstieg des Meeresspiegels um rund 30% beiträgt. Wenn erst einmal der Höhepunkt der Schmelze überschritten ist, weil sich die Gletscher stark verkleinert haben, verringert sich die Menge des Schmelzwassers – mit erheblichen Folgen für die Wasserversorgung.

Unser Handeln gefährdet wichtige Pufferkapazitäten, auf die wir dringend angewiesen sind. „Indem wir maßlos unsere Wasserressourcen ausbeuten, die Natur und die Artenvielfalt zerstören und sowohl die Erde als auch den Weltraum verschmutzen, bewegen wir und gefährlich nahe an den Rand mehrerer Risiko-Kipp-Punkte“, warnen Wissenschaftler. Wenn die Menschheit das Ruder nicht herumreißt, wird das System nicht mehr in der Lage sein, die Risiken abzufedern und gewisse Funktionen aufrechtzuerhalten, was zu nicht umkehrbaren Schäden führen kann.

Die immer schwerwiegenderen Katastrophen treiben auch die Kosten für Versicherungen hoch, bis sie irgendwann nicht mehr bezahlbar sind. Sobald dieser Punkt erreicht ist, haben wir Menschen kein wirtschaftliches Sicherheitsnetz mehr.

Fazit

Die Umweltkatastrophen der vergangenen Jahre – wie Dürreperioden, Überschwemmungen und Wirbelstürme – zeigen deutlich, wie stark das Klimasystem der Erde bereits geschädigt ist. Bei Überschreiten des 1,5-Grad-Klimaschutzziels könnten bis zu zehn weiter Kipp-Punkte erreicht werden. Das daraus resultierende Ergebnis werden wir in all seinen Ausmaßen leider erst danach kennen. Eine Studie diskutierte das Risiko, dass durch noch stärkere Rückkopplungen eine Stabilisierung der globalen Temperaturerhöhung bei mehr als zwei Grad nicht mehr möglich sein könnte. Sicher ist diese Gefahr derzeit noch relativ gering. Aber es wird deutlich, wie dringend ein schneller und effektiver Klimaschutz notwendig ist, denn selbst wenn die Prozesse nicht mehr aufzuhalten sind, lassen sie sich doch bremsen.

Noch haben wir es in der Hand. Die heute umgesetzten Lösungen konzentrieren sich leider derzeit eher auf eine Verzögerung der Kipp-Punkte als wirklich resolut die Ursachen der Entwicklungen zu bekämpfen. Unser Handeln ist zu sehr auf das Jetzt und Heute getrimmt. Die Option künftiger Generationen werden zu wenig berücksichtigt. Weitschauendes Denken und Handeln ist vonnöten, das die Bedürfnisse und das Wohlergehen der Natur besser achtet und sie als globales System von zusammenhängenden Teilen sieht, von denen wir Menschen nur eines sind.

REM

Entstehung und Frühzeit der ERDE

Der englische Gelehrte John Lightfoot hatte nach biblischen Angaben errechnet, dass die Erde am 23. Oktober 4004 v. Chr. genau um 9 Uhr erschaffen wurde. Heute wissen wir, dass die Entstehung unseres Planeten nicht Tausende, sondern Milliarden Jahre zurückliegt. Es begann damit, dass vor mehr als 4,5 Milliarden Jahren – 33 000 Lichtjahre vom Zentrum der Milchstraße entfernt – eine gigantische Wolke aus Gas und feinem Staub kollabierte, ausgelöst durch die Schockwellen einer Supernova, und sich schließlich zu einer Scheibe abflachte.

Magnetfelder bremsten die Rotation der Scheibe und der Hauptteil der Materie sammelte sich aufgrund der Gravitation vor allem im Zentrum an, wo sie weiter kontrahierte. Druck und Temperatur stiegen immer mehr an und es entwickelte sich ein glühender, noch recht loser, gigantischer Gasball, ein Protostern. Als dieser eine kritische Masse überstieg, begann ein nuklearer Fusionsprozess – die Sonne war geboren.

Entstehung des Planetensystems

Der junge Stern im Zentrum des Urnebels vertrieb durch seine intensive Aktivität fast jegliches Gas aus der ihn umgebenden Materiewolke. Übrig blieben feste Partikel, die sich innerhalb von nur 20 000 Jahren teilweise zu kleinen Körnern aus kalzium- und aluminiumreichen Silikaten zusammenballten, die wir heute noch in Meteoriten finden. Die ältesten Körnchen haben ein Alter von 4,5676 Milliarden Jahren (mit einer Unsicherheit von plus/ minus 30 000 Jahren), was man als Zeitpunkt für die Entstehung unseres Sonnensystems festgelegt hat.

Die Körnchen lagerten sich zu kieselgroßen Objekten, sog. Pebbles, zusammen, aus denn sich wiederum innerhalb von 100 000 bis 1 Million Jahren mithilfe von Gravitation, elektrischen Kräften, Wirbeln und Magnetfeldern immer größere kugelförmige Körper bis zu kilometergroßen Objekten (Planetesimalen) bildeten. Neuere Modelle zur Entstehung der Planetesimale gehen von einem kollektiven Gravitationskollaps einer Wolke aus Eis- und Staubpartikeln aus, was inzwischen bestätigt scheint. Die Dichte der Wolke im turbulenten solaren Nebel musste, wenn das zutrifft, so groß gewesen sein, dass die Gezeitenkraft der Sonne die Wolke nicht zerreißen konnte. Der spontane Kollaps endete dann mit der Entstehung eines Urkörpers von bis zu 100 Kilometern Durchmesser. Nach diesem Modell sind die Planetesimale also bereits recht groß auf die Welt gekommen.

Die Planetesimale kollidierten zunächst immer wieder miteinander und lagerten sich zu noch größeren Körpern zusammen. Je größer die Objekte wurden, desto effizienter ging der Wachstumsprozess vonstatten. Allerdings verlief die Entwicklung nicht geradlinig von kleinen zu immer größeren Körpern. Häufig zerfielen Objekte nach weiteren Kollisionen wieder in viele Bruchstücke. Protoplaneten konnten in nur 10 Millionen Jahren auftauchen, durch Zusammenstöße auseinander gerissen werden und aus den Trümmern erneut hervorgehen. Allerdings: Je größer sie wurden, desto mehr nahm ihre Anzahl und folglich auch die Häufigkeit der Kollisionen insgesamt ab.

Die Frage, ob Planeten entstehen, hängt eng mit der verlangsamten Eigendrehung des Protosterns zusammen. Es scheint, dass bei der Entstehung unseres Planetensystems aufgrund von Transportprozessen in der protoplanetaren Scheibe einerseits Masse nach innen wanderte und andererseits Drehimpuls nach außen, so dass die Sonne nahezu alle Masse, die Planeten nahezu jeglichen Drehimpuls an sich rafften. Es ist also gerade der Drehimpuls der frühen Sonne, dem wir die Existenz der Planeten in unserem Sonnensystem verdanken – und damit auch unser Leben.

Die Gravitation eines Protoplaneten war bald stark genug, um jedes Objekt, das sich ihm näherte, entweder anzuziehen oder weit aus seiner bisherigen Bahn herauszuschleudern. Manche der Protoplaneten erreichten auf diese Weise eine Größe zwischen Erdmond und Mars. Der Erdvorläufer brachte es beispielsweise in dieser Zeit auf etwa 10% seiner späteren Masse. Bei dem Prozess der Planetenentstehung blieben auch kleinere Himmelskörper übrig, die noch immer durch die sonnenfernen Gefilde schwirren: Planetoide, Kometen und Kuiper-Objekte, die typischerweise einen Durchmesser von 10 bis 100 Kilometern haben.

Nahe der Sonne hatten sich die Planetesimale wohl vorwiegend aus hitzebeständigem Silikatgestein gebildet. Weiter außerhalb war es kalt genug, dass Wasser und Gase wie Methan (CH4), Stickstoff (N2) Kohlenstoffdioxid (CO2) und Kohlenstoffmonoxid (CO) gefroren. Das Resultat waren zwei Planetentypen: relativ trockene nahe der Sonne – einer Region, arm an flüchtigen Stoffen – und solche mit viel Wassereis und anderen flüchtigen Stoffen weiter entfernt. Die Trennlinie liegt heute zwischen Mars und Jupiter, etwa im Bereich des Asteroidengürtels.

Es ist ziemlich wahrscheinlich, dass unser Sonnensystem in den ersten 500 Millionen Jahren seiner Geschichte mehr Planeten beherbergte als heute, von denen im weiteren Verlauf nur wenige Exemplare überlebten. Die Kerne der Riesenplaneten (Jupiter, Saturn, Uranus, Neptun) im äußeren Sonnensystem wuchsen zunächst langsam aus Eis und Gestein heran. Als sie eine kritische Masse (rund 10 Erdmassen) überschritten, waren sie in der Lage, Gas anzuziehen und begannen rasch anzuschwellen, indem sie große Mengen Wasserstoff und Helium aufsammelten. Die Geburt der Gesteinsplaneten nah der Sonne (Merkur, Venus, Erde, Mars), die mangels Masse kein Gas um sich halten konnten und so im Verhältnis zu den Gasriesen klein blieben, war ein mehrstufiger Prozess und dauerte erheblich länger als bei den Gasplaneten – bis zu 100 Millionen Jahre.

Alle bisherigen Messungen legen nahe, dass ein 10 bis 20 Erdmassen schwerer Jupiterkern bereits innerhalb von 500 000 bis eine Million Jahren entstanden war und seine Bahn um die Sonne zog. Um sich seine heutigen 318 Erdmassen „anzufressen“, brauchte Jupiter wohl nur wenige Millionen Jahre.

Irgendwann in den nächsten 100 Millionen Jahren, so besagt ein Modell, sei es zu einer Instabilität der Umlaufbahnen der vier Gasplaneten gekommen, was gravierende Folgen für die Entstehung der Gesteinsplaneten hatte. Ein weiter Vorstoß Jupiters Richtung inneres Sonnensystem könnte dabei die protoplanetare Scheibe bis zur heutigen Erdbahn von Objekten leergefegt haben. Während sich aus den zahlreichen Planetesimalen, die sich um die Sonne angesammelt hatten, in den nächsten Dutzenden von Millionen Jahren Merkur, Venus und Erde bildeten, war der sonnenferne Mars vom Baumaterial abgeschnitten und hat sich demzufolge nur kümmerlich entwickelt. Vielleicht hat Jupiters Stippvisite ins innere Sonnensystem sogar einige dort früher existierenden Planeten beseitigt und so die Entstehung der Erde erst ermöglicht. Neue Überlegungen gehen von ein bis zwei neptunähnlichen Planeten aus, die in der wilden Frühzeit von Jupiter aus dem Sonnensystem katapultiert wurden.

Entstehung der Erde

Rund 70 Millionen Jahren nach der Sonnenzündung war der Erdvorläufer herangewachsen. Die Fachwelt ist sich allerdings noch nicht einig, ob er durch das Aufsammeln von unzähligen Körpern oder aber aus der Zusammenballung von etwa 10 marsgroßen Körpern zu unserem Planeten wurde. Tatsächlich sprechen Isotopen- und Elementverhältnisse dafür, dass die Erde größtenteils aus Enstatit-Chondriten (Magnesiumsilikat-haltige Steinmeteorite) besteht, die daher als Urbausteine des Planeten gelten.

Die frühe Erde war zunächst noch kleiner als heute – nichts als ein riesiger Klumpen zusammengeballten Gesteins. An der Oberfläche gab es einige Gase, Staub und die Kälte des Weltalls. Selbst das Innere des Planeten war noch kalt. Unter dem fortgesetzten Bombardement von Planetesimalen wuchs die junge Erde noch lange weiter. In ihrem Inneren sorgte die freiwerdende Kollisionsenergie der pausenlos einschlagenden Meteoriten und radioaktive Elemente für eine große Hitze, die nicht entweichen konnte und nach und nach anstieg. Als sich das Gestein auf rund 10 000°C erhitzt hatte, begann es zu schmelzen und die Erde wurde zu einer glühendheißen Feuerkugel.

Die Akkretion unter der Wirkung von Hitze und Schwerkraft führte zur Differenzierung des Planeten, d. h. , seine Bestandteile trennten sich ihrem Gewicht nach in verschiedene Schichten. Die schwereren Elemente wie Eisen, Magnesium und Kalzium sanken in die Tiefe, während die leichteren Stoffe wie Sauerstoff, Silizium und Aluminium an die Oberfläche trieben. Es bildete sich die bekannte Zwiebelstruktur aus – mit einem Kern aus Eisen und einem überwiegend aus Silikaten bestehenden Mantel. Die Formung des Erdkerns definiert das Geburtsdatum der Erde. Nach neuesten Erkenntnissen geschah das bereits 30 bis 40 Millionen Jahre nach der Entstehung des Sonnensystems, also vor 4,527 Milliarden Jahren (plus/ minus 10 Millionen Jahre). Diejenigen Elemente, die leicht oxidieren – wie die Mischung aus Silizium, Natrium und Kalzium -, bildeten vor 4,45 Milliarden Jahren des Erdmantel.

Durch die Abgabe von Wärme-Strahlung während vieler Millionen Jahre kühlte der Planet allmählich ab. Bei Temperaturen unter 1000°C kristallisierten aus der glühenden Schmelze Minerale und feste Gesteine. An der Oberfläche bildete sich eine feste Kruste, die wohl noch nicht als zusammenhängende Decke die gesamte Erde umschloss, sondern aus mehreren Einzelstücken bestand, die auf dem wallenden Magma schwammen.

Die Größe der Erde sorgte dafür, dass Wärme nur langsam verloren ging. Deshalb verfügt unser Planet über einen geschmolzenen äußeren Kern und über aktive Vulkane auf seiner Oberfläche. Für kleinere Himmelskörper ist das Verhältnis von Oberfläche zu Volumen und somit die Energieabstrahlung ins Weltall größer. Der Erdmond beispielsweise – mit knapp 3500 Kilometer Durchmesser nur rund ein Viertel so groß wie die Erde – verliert deshalb seine Wärme viel schneller.

Leichtflüchtige Bestandteile wie Wasser, Kohlenstoffdioxid, Ammoniak und Methan verdampften aus der Erde und bildeten eine erste Gashülle, die rund 100-mal dünner war als die heutige Atmosphäre. Der Überschuss an leichten Gasen, Helium und Wasserstoff, verschwanden in den Weltraum. Damals strahlte die noch junge Sonne schwächer als heute. Folglich konnte sie die Lufthülle vermutlich nicht genügend aufheizen, obwohl es dort seinerzeit große Mengen an dem Treibhausgas Kohlenstoffdioxid gab. Die Außentemperatur könnte daher schon bald unter den Siedepunkt von Wasser gesunken sein – vorausgesetzt, es gab längere Ruhephasen zwischen den Meteoritenbombardements und die Kruste war relativ stabil.

Vermutlich durch Jets – mächtige, sehr energiereiche Sonnenfackeln – wurde der Rest der Gas- und Staubhülle aus dem inneren Sonnensystem einfach weggeblasen. Infolgedessen destabilisierten sich die jungen Planeten gegenseitig und ihre Umlaufbahnen wurden nach und nach immer elliptischer. Einer anderen Hypothese zufolge war ein anderer Stern für diese Vorgänge verantwortlich, der in wenigen 1000 Astronomischen Einheiten (AE) Entfernung an der Sonne vorübergezogen sein soll. Seine Anziehungskraft habe Planeten, Asteroiden und Kometen aus ihren ursprünglich kreisförmigen Bahnen geworfen und in stark elliptische und geneigte Bahnen umgelenkt. Derartige Umlaufbahnen besitzen tatsächlich heute noch Kometen, die mehr als 50 AE von der Sonne entfernt sind.

Nach ein paar Millionen Jahren überschnitten sich die Bahnen der Himmelskörper schließlich, was zu Kollisionen geführt haben könnte. Merkur und Erdmond sind wahrscheinlich aus den Trümmern kollidierender Urplaneten hervorgegangen. Für kleinere Körper aber gab es immer weniger Bereiche mit stabilen, von den wachsenden Planeten nicht gestörten Bahnen. Der Asteroidengürtel zwischen Mars und Jupiter ist heute eine der letzten sicheren Zonen für solche Objekte. Nach Modellrechnungen und Beobachtungen bei anderen Sternen liegt nahe, dass die Ära der Kollisionen in unserem Sonnensystem je nach Schätzung bis zu 100 Millionen Jahre andauerte und mit dem vermuteten dramatischen Zusammenstoß eines marsgroßen Körpers, Theia genannt, mit der Urerde endete. Die Kollision führte zur erneuten Aufschmelzung der Erde und der Entstehung des Mondes.

Zu dieser Zeit hatte unser Heimatplanet durch frühere Kollisionen 90% seiner endgültigen Größe erreicht, seine Ausformung war also wahrscheinlich noch nicht beendet. Der Mantel Theias sowie ein Teil des Erdmantels wurden durch den heftigen Zusammenprall ins All gesprengt. Fast der gesamte Eisenkern Theias blieb in der Urerde stecken und vereinigte sich mit dem Erdkern. Ein Teil des weggesprengten Theia-Materials sammelt sich in einer Wolke um die Erde und verklumpte schließlich zu unserem Erdtrabanten.

Der Gezeiteneinfluss des Mondes bremste die rasante Erdrotation (anfangs 2,5 Stunden pro Umdrehung), während sich der Orbit des Mondes mit der Zeit vergrößerte – entsprechend dem Gesetz der Drehimpulserhaltung. Dieser Effekt dauert bis heute an. Der Mond stabilisiert auch die Lage der irdischen Rotationsachse, die gegenüber der Ekliptik-Ebene (der Ebene, in der die Erdbahn um die Sonne liegt) gekippt ist. Die geringe Schwankungsbreite der Erdneigung ist wiederum verantwortlich für die relative Regelmäßigkeit des Erdklimas.

Entwicklung der Erde

Wie thermodynamische Berechnungen zeigen, könnte die Temperatur auf der Erde innerhalb von nur 10 Millionen Jahren nach dem Einschlag Theias so weit gesunken sein, dass sich der flüssige Globus wieder mit einer festen Gesteinskruste überzog. Diese bildete sich aus sog. komatiitischer Lava, die deutlich reicher an Magnesium und Eisen war als basaltische und lediglich in der Frühzeit der Erde auftrat. Der Planet muss damals noch sehr heiß gewesen sein und wies vermutlich eine mobile Kruste auf, die leicht schmolz. Von Feuerströmen und Asteroideneinschlägen wurde sie stets aufs Neue zerrissen und Krustenteile tauchten immer wieder in die wallende Glut des Erdinneren ein.

Untersuchungsergebnisse deuten darauf hin, dass sich die heftigsten Einschläge auf die Erde auf einen Zeitraum von 4,48 bis 4,45 Milliarden Jahren vor heute beschränkten. (Nach Untersuchung von rund 100 Mondkratern gab es dort erst vor 4,3 Milliarden Jahren ein Maximum an Einschlägen.) Die Anzahl der Impakte scheint danach zunächst graduell zurückgegangen sein. Magmatische Prozesse im Mantel und das Wiederaufschmelzen der Krustenfragmente brachten auf der Erde allmählich ein Gestein hervor, das eine andere Zusammensetzung und Dichte hatte als die Urkruste und eher der des Granit, einem hellen magmatischen Gestein, entsprach. Es war sehr viel härter, zugleich aber leichter und ragte aus der umgebenden basaltischen Kruste heraus.

Nach dem Zusammenstoß mit Theia hatte das Schwerefeld der Erde nach und nach zugenommen. Schließlich besaß der Planet soviel Anziehungskraft, um eine zweite Atmosphäre dauerhaft zu halten. Riesige Mengen Gase entluden sich in gigantischen Vulkanausbrüchen und reicherten sich in der Lufthülle an. Zusätzlich setzten die zahlreichen, mit der Erde kollidierenden Himmelskörper beim Aufschlag Gase frei, darunter Wasserdampf, Ammoniak und Methan. So enthielt die Atmosphäre anfangs vor allem Wasserstoff (71%), Kohlenstoffdioxid (23 bis 24%), Stickstoff (5 bis 6%) und geringe Mengen Schwefelverbindungen.

Wasser war schon Bestandteil der ursprünglichen Nebelwolke, aus der Sonne und Planeten hervorgingen, und in Form von Eis auf Planetoiden offenbar weit verbreitet. Sollte dies zutreffen, dann war also bereits bei der Erdentstehung Wasser vorhanden. In der Frühzeit der Erde lag es vor allem im Mantel in Form von Hydraten gebunden vor. Es ist aber unklar, wie viele Wassermoleküle sich in der jungen Erde einlagerten. Nach Schätzungen von Forschern der Universität Tokio enthielt das Mantelgestein damals 50 Mal so viel Wasser wie die gegenwärtigen Meere.

[Viele Indizien sprechen dafür, dass Kohlige Chondrite (bestimmte kohlenstoffhaltige Steinmeteorite) das Wasser für die heutige Erde lieferten. Neben einer Vielzahl von organischen Verbindungen enthalten sie rund 10 bis 20% Wasser, dessen chemische Zusammensetzung – vor allem das Isotopenverhältnis von Deuterium zu Wasserstoff (D/H) – der Chemie der Ozeane entspricht. Auch in Estatit-Chondriten steckt genug Wasser, dessen D/H-Verhältnis ebenfalls einigermaßen passt. Vielleicht läuft alles auf ein Mischmodell hinaus und sowohl Kohlige als auch Enstatit-Chondriten haben zum Wasserbudget der Erde zumindest beigetragen. (Kometen hingegen kommen nicht als Wasserquelle in Frage. Ihr Eis unterscheidet sich in Bezug auf das D/H-Isotopenverhältnis stark vom Wasser auf der Erde.)]

Viele Jahrmillionen dauerte der Kampf zwischen Feuer und Wasser um die Vorherrschaft auf unserem Planeten. Schließlich aber waren die Temperaturen weit genug gesunken. Die Erdatmosphäre war jetzt dauerhaft kühl genug, damit Wasserdampf kondensierte und als Regen zu Boden fiel. Vermutlich schüttete es in Strömen ununterbrochen mehrere zehntausend Jahre lang. Spätestens vor 4,3 Milliarden Jahren sammelte sich flüssiges Wasser in riesigen vulkanischen Becken und Senken der Erdoberfläche. Mit der Zeit bildeten sich immer größere Seen und Meere.

Nach anderer Ansicht ähnelte zur Zeit des großen Regens die junge Erde äußerlich noch dem heutigen Mond: Ihre Oberfläche aus schwarzem Basaltgestein sei pockennarbig von Einschlägen gewesen, aber es gab kaum größere Senken, in denen sich Regenfluten hätten sammeln können. Das Wasser stieg deshalb überall gleichmäßig – mit der Folge, dass der nun gebildete Ozean bald den gesamten Globus bedeckte. Nur die hohen Vulkanberge ragten als Inseln aus dem Meer heraus.

Vor längstens vier Milliarden Jahren hatte das Wachstum der Planeten im Sonnensystem ein Ende. Auf der Erde existierten jetzt eine Gesteinskruste und Ozeane – vielleicht sogar schon eine kontinentale Kruste, auf welcher der Kreislauf von Verwitterung und Sedimentation ablief. Die Ordnung war aber noch instabil – u. a. aufgrund der Wechselwirkung der Planeten mit kleineren Himmelskörpern.

Der wandernde Jupiter hat möglicherweise den Planetoidengürtel kräftig aufgemischt und dabei Asteroiden ins innere Sonnensystem geschleudert. Die Frage ist noch nicht geklärt, wann genau der Meteoritenhagel auf der Erde einsetzte und ob er kurz und heftig war oder schwächer und länger dauerte. Daten von Mondproben legen jedenfalls nahe, dass um 3,95 Milliarden Jahre v. h. in einem relativ kurzen Intervall von wenigen Dutzend Millionen Jahren eine Flut von Himmelsobjekten auf dem Mond – und entsprechend wohl auch auf der Erde – einschlugen. Auch anschließend wurde unser Planet noch hin und wieder von einem Himmelskörper getroffen, ehe Ruhe einkehrte.

Vor 3,8 Milliarden jedenfalls endete das sog. Höllenzeitalter oder Hadaikum (nach Hades, dem Gott der Unterwelt in der griechischen Mythologie), das mit der Entstehung der Erde begonnen hatte. Es folgte das Archaikum, das bis 2,5 Milliarden Jahre vor heute andauerte. In dieser Zeitepoche war die Erde erstmals durchgängig von einer festen Kruste mit einer Oberflächentemperatur unter dem Siedepunkt von Wasser bedeckt.

Kontinente und Tektonik

Nach neuesten Erkenntnissen könnte eine kontinentale Kruste vor 3,7 Milliarden Jahren entstanden sein. Ihr Gehalt an radioaktiven Elementen muss anfangs höher gelegen haben als heute; sie war also wärmer und vermutlich dünner. Im Vergleich zur damals wenige Kilometer mächtigen basaltischen Kruste, die sich grob mit der heutigen ozeanischen Kruste vergleichen lässt, war sie aber wesentlich kühler und chemisch und mineralogisch sehr viel komplexer.

Die ersten Protokontinente nahmen wahrscheinlich nur allmählich Gestalt an, so wie sich auch in der Gegenwart neue Landmassen nur sehr langsam bilden. Auf welche Weise genau und wie schnell echte Kontinente entstanden und wuchsen, ist noch nicht endgültig geklärt. Ausgedehnte Landflächen besaß die Erde damals jedenfalls wohl noch nicht. Die meisten Geologen sind sich allerdings einig, dass die Erde spätestens vor etwa drei Milliarden Jahren erstmals über einen richtigen Kontinent verfügte: ein ödes, mit Vulkanen übersätes Land, sicherlich kleiner als das heutige Australien. Wo er lag, ist nicht bekannt. Da es dicht unter der Kruste immer noch heftig brodelte, zerbrach der Kontinent wieder, während sich anderswo neue Landmassen bildeten.

Wann die moderne Plattentektonik auf der Erde einsetzte, ist heftig umstritten. Laut verschiedenen Theorien gab es im Archaikum immer wieder vorübergehend tektonische Aktivität, die geologisch betrachtet aber eher kurzlebig war und dauerhaft erst vor mehr als drei Milliarden Jahren Fahrt aufnahm. Gewaltige kosmische Geschosse, die die Erde trafen, könnten der Auslöser dafür gewesen sein, dass aufsteigendes Magma aus der Tiefe zunehmend die ozeanischen Platten und kontinentalen Krustenteile umherschob. Bei Zusammenstößen verschmolzen sie zu größeren Gebilden, während erkaltete ozeanische Kruste an Subduktionszonen in den heißen oberen Mantel gedrückt wurde und abtauchte. (Analysen des ältesten Gesteins auf der Erde legen nahe, dass bereits vor etwa vier Milliarden Jahren Vorgänge stattgefunden haben könnten, die der Subduktion ähnelten.)

Nachdem der Prozess einmal angestoßen war, folgte eine (gut dokumentierte) Serie aus Aufspaltungen und Vereinigungen von Kontinenten, die schließlich zur heutigen Festlandsverteilung führten. Der Erdkern treibt gemeinsam mit dem Erdmantel heute noch die Geotektonik mit Kontinentalverschiebung, Gebirgsbildung und Vulkanismus als äußere Erscheinungsformen an.

Stabilisierung

Unsere Erde hatte also ein neues Gesicht bekommen: Aus einem ursprünglich braunen war ein „blauer Planet“ geworden. Nachdem der ständige Regen die Atmosphäre gereinigt hatte, gelangte mehr Sonnenlicht bis zur Erdoberfläche. Die Ozeane wurden zum Ursprung allen Lebens. Fossilfunde belegen, dass die ersten einfachen Lebensformen möglicherweise schon unmittelbar nach Auftauchen der ersten Meere entstanden. In mehr als 3,5 Milliarden Jahre altem Gestein wurde das Vorhandensein von Sauerstoff produzierenden und Minerale verarbeitende Lebensformen nachgewiesen.

In der weiteren Erdgeschichte schwankten einige physikalische und chemische Größen, nachdem sie ein bestimmtes Niveau erreicht hatten, nur noch in bestimmten Grenzen, blieben also relativ konstant. Das trifft z. B. auf den Sauerstoffgehalt der Atmosphäre, die Temperatur und die Salinität der Ozeane zu.

Einer Hypothese zufolge betrug die Leuchtkraft der Sonne während des Archaikums nur etwa 75 bis 80% ihres heutigen Wertes. Unter vergleichbaren Randbedingungen hätte die irdische Durchschnittstemperatur etwa 26°C niedriger liegen und damit Wasser größtenteils zu Eis gefrieren müssen. Dennoch liefern die geologischen Zeugnisse bis vor 2,5 Milliarden Jahren keinen stichhaltigen Hinweis auf eine großräumige Vereisung der frühen Erde. Das Treibhausgas Kohlenstoffdioxid spielte möglicherweise eine entscheidende Rolle. Durch vulkanische Aktivität gelangte es ständig in die Atmosphäre: Erhöhte sich dort seine Konzentration, stiegen auch die Temperaturen auf der Erde.

Allerdings: Wäre das CO2 nicht wieder aus der Atmosphäre entfernt worden, wären im Archaikum die Weltmeere schließlich verdampft – ein Schicksal, das vor vier Milliarden Jahren die Venus ereilte und den Planeten in ein unwirtliches Treibhaus verwandelte. Auf der Erde war es wohl die Gesteinsverwitterung, die uns schließlich davor bewahrte: Sie bindet CO2 und reduziert damit dessen Konzentration in der Atmosphäre. Wie bedeutend dieser Prozess als Kohlenstoffdioxidsenke war und wann dieser Prozess (Kohlenstoff-Silikat-Zyklus) eingesetzt hat, ist freilich umstritten.

Jedenfalls scheint die Rückkopplung (ein Feedback) zwischen Entzug und Emissionen von Kohlenstoffdioxid dessen Konzentration in der Atmosphäre über einen längeren Zeitraum hinweg – man spricht von 250 000 Jahren -annähernd konstant gehalten zu haben. Das bedeutet aber keineswegs, dass die Erdtemperatur stets gleichförmig war. Im Gegenteil: Durch den Anstieg und Abfall vulkanischer Emissionen oder aber durch Gebirgsbildung, welche die Verwitterung erhöhte, variierte der Kohlenstoffdioxidgehalt in der Lufthülle der Erde fortlaufend. Doch stellte sich immer wieder ein Gleichgewicht her. Das ermöglichte relativ stabile Temperaturen auf unserem Planeten und machte die Entstehung und Entwicklung des Lebens erst möglich.

Die meisten Wissenschaftler stimmen heute der Annahme zu, dass das Leben selbst die oben beschriebene Rückkopplung maßgeblich beeinflusst hat, selbst wenn wir noch lange nicht alle Einzelheiten des Rückkopplungs-Mechanismus kennen. Cyano-Bakterien und später Pflanzen bauten mittels Fotosynthese Kohlenstoffdioxid aus der Atmosphäre ab. Die Wurzeln der Landpflanzen brachen Gesteine auf und förderten die Verwitterung. Durch Zersetzung organischen Materials und Stoffwechsel der Tiere gelangte CO2 schließlich wieder in die Atmosphäre. Dieser organische Kohlenstoffzyklus konnte das CO2-Budget der Atmosphäre beeinflussen und immer wieder ausbalancieren. Selbst die ständig steigende Energieabstrahlung der Sonne hat auf Dauer ein komplexes Gleichgewicht nicht verhindert. Heute werfen die massiven zusätzlichen Kohlenstoffdioxid-Emissionen aus den fossilen Brennstoffen den CO2-Zyklus aus dem Gleichgewicht.

Die wesentlichen biogeochemischen Kreisläufe, von denen auch unsere Existenz abhängt, waren schon vor drei Milliarden Jahren etabliert, lange bevor große Organismen erschienen. Seitdem sind die dynamischen Aktivitäten der Biosphäre vollständig mit denen der Litosphäre, Hydrosphäre und Atmosphäre verflochten; sie wirken aufeinander und regulieren sich gegenseitig. Durch dieses verhältnismäßig komplexe System von fast geschlossenen Stoffkreisläufen wird eine ausgeglichene Energiebilanz aufrechterhalten. Schon längerfristige geringe Abweichungen hätten die Erde zu einer glühenden Hölle oder Eiswüste machen können.

Vor 2,7 Milliarden Jahren bestand die Erdatmosphäre höchstwahrscheinlich noch zu rund 70% aus Kohlenstoffdioxid und enthielt keinen Sauerstoff. Es waren allerdings schon Mikroorganismen (Cyano-Bakterien) aktiv, die mit der Fotosynthese Sauerstoff freisetzten. Dieser reagierte im Meer mit anderen im Wasser gelösten Substanzen, insbesondere mit Eisenionen und Schwefelverbindungen, zu meist nicht mehr löslichen Formen. Im Laufe der Jahre besiedelten die Cyano-Bakterien immer größere Meeresgebiete, womit auch die Sauerstoff-Produktion zunahm. Ein nennenswerter Anteil davon gelangte als freies Gas in die Atmosphäre. Vor 2,2 Milliarden Jahren war der Sauerstoffgehalt in der Lufthülle der Erde schon auf mehr als ein Prozent des heutigen Werts gestiegen. Als Folge begann nun auch die Erdoberfläche zu oxidieren: Eisenminerale z. B. reagierten mit dem Sauerstoff zum roten Eisenerz Hämatit.

Nach der Entwicklung der Pflanzen wurde im Laufe von vielen Jahrmillionen immer mehr Sauerstoff (O2) freigesetzt, so dass sein Gehalt in der Atmosphäre immer mehr anstieg. Erst vor etwa 350 Millionen Jahren pendelte sich schließlich ein Gleichgewicht zwischen der fotosynthetischen O2-Produktion und dem O2-Verbrauch der Tiere ein. Seitdem beträgt der Anteil des Gases in der Atmosphäre relativ konstant knapp 21%.

[Als Glücksfall für die Evolution des Lebens erwies sich zudem, dass der Sauerstoff in der Stratosphäre durch die kurzwellige, energiereiche UV-Strahlung der Sonne gespalten wird. Als Folge entstand dort Ozon (O3), das einen Schutzschirm gegen die gefährlichen Strahlen bildete und die Entwicklung des Lebens an Land möglich machte. Die Ozonschicht schützt uns auch heute noch vor der ultravioletten Sonnen-Strahlung.]

REM

Der Tod – und kein Ende?

Ob vor 40 000 Jahren oder heute, ob in der Arktis oder am Äquator, immer und überall gehen die Menschen den Fragen nach Geburt und Tod nach und versuchen, Antworten zu finden. Der Tod scheint ein Teil des Kreislaufs der Natur zu sein und damit unteilbar verbunden mit dem Leben. Während der Zen-Buddhist dem Unterschied zwischen Leben und Tod keine Bedeutung zumisst, erscheint der Tod für viele heutige Menschen als größtmögliche Kränkung: Kaum hat man die Vorstellung einer unabhängigen, objektiven Welt entwickelt, wird man auch schon mit der Tatsache konfrontiert, dass man aus dieser objektiven Welt ersatzlos gestrichen wird.

Wo die kritischen Funktionen des Organismus ausfallen bzw. die Fähigkeit verloren geht, die einzelnen Rhythmen des Lebens wirksam zu koordinieren, kommt der Tod. Konkret tritt der Todesprozess in vielfältigen Stadien auf: Atemstillstand, Verschwinden des Pulses, Nulllinie des EKG, irreversibler Verlust des Bewusstseins, usw. Über Generationen hinweg galt der Stillstand von Atmung und Herz- und Kreislauftätigkeit als Todeszeichen. Die alten Ägypter und Griechen glaubten, das Herz bringe die Lebenskraft hervor; das Fehlen des Herzschlags galt demzufolge als wichtigstes Todeszeichen. Im Judentum wie auch im Islam beruhte die Definition von Tod dagegen traditionell auf dem Atemstillstand.

Setzt die Atmung aus, endet in den Zellen die Energieproduktion (ATP), so dass die Sauerstoffvorräte in weniger als einer Minute erschöpft sind. Ohne Sauerstoff können Enzyme nicht mehr aktiv werden. Am Ende sind die Zellen in den lebenswichtigen Organen irreversibel geschädigt; ein Organ nach dem anderen wird wie in einer Kettenreaktion lahmgelegt („Örtlicher Tod“ oder „Organtod“) – und schließlich der gesamte Körper. Beim Herzstillstand spricht man vom „Klinischen Tod„. Durch künstliche Maßnahmen (künstliche Beatmung und Herzmassage) können Atmung und Kreislauf über den spontanen Stillstand hinaus aufrechterhalten bzw. reaktiviert werden. Erst etwa 10 bis 15 Minuten nach dem Kreislaufstillstand lässt sich der Hohlmuskel im Allgemeinen nicht mehr zum Schlagen erwecken. Ausnahmen bestätigen allerdings die Regel.

Auch wenn das Herz nicht mehr schlägt und den Körper mit Blut versorgt, lebt es noch weiter. Bleibt die Versorgung mit Nährstoffen und Sauerstoff aus, werden noch vorhandene Energieträger ohne Sauerstoff abgebaut. Dabei kommt es zur Bildung von Milchsäure. Da sie nicht ausgespült wird, übersäuern die Zellen und sterben schließlich nach 30 Minuten ab. Jetzt erst ist das Herz tot.

Die prinzipielle Umkehrbarkeit des kurzfristigen Ausfalls von Atmung und Kreislauf zeigt, dass der „klassische“ Todesbegriff unbrauchbar geworden ist. Der Tod musste also neu definiert werden. Zwar erlischt auch das Bewusstsein nach dem letzten Herzschlag innerhalb weniger Sekunden, doch das Gehirn bleibt noch ein paar Minuten länger intakt: Botenstoffe werden freigesetzt und setzen die Nervenzellen innerhalb von 30 Sekunden in einen Ruhemodus („elektrische Stille„), um Energie zu sparen. In diesem Zustand bleibt das Gehirn etwa zwei bis drei Minuten, dann entlädt sich die Energie in einer elektrochemischen Welle.

Sofern es innerhalb von vier bis maximal zehn Minuten nach Herzstillstand wieder genügend rasch mit Sauerstoff versorgt wird, kann auch das Gehirn reaktiviert werden. Erst jenseits dieser Frist, also nach fünf- bis zehnminütigem Sauerstoffentzug, wird es irreversibel geschädigt und die grauen Zellen versagen ihren Dienst für immer („Hirntod„). Einige Mediziner vermuten, dass das Gehirn unter bestimmten Umständen sogar noch länger – bis zu einer Stunde – ohne Sauerstoff auskommen kann. Wann schlussendlich der Hirntod eintritt, hängt von vielen Faktoren ab, etwa der Temperatur.

Den irreversiblen Verlust der Hirnfunktion als gleichbedeutend mit dem Tod des Menschen gleichzusetzen, erwog erstmals Moses Maimonides (1135 – 1204), der herausragendste Gelehrte des mittelalterlichen Judentums. Inzwischen hat sich das Kriterium des Hirntods fast weltweit durchgesetzt. Auch im Judentum und im Islam ist es inzwischen akzeptiert.

Beim Hirntod existieren drei nach neurologischen Kriterien festgestellte Varianten, die sich auf Hirnstamm, Ganzhirn oder die Großhirnrinde beziehen. Sind die Funktionen von Stammhirn, Kleinhirn und Großhirn unwiderruflich erloschen, spricht man von Ganzhirn- oder Gesamthirntod. Wie der Hirnstammtod ist er definiert als irreversibles Ende des Organismus als Ganzem. Beim Großhirntod handelt es sich um ein fundamental anderes Konzept: den Tod als irreversiblen Verlust des Bewusstseins und der Fähigkeit zu sozialen Interaktionen. Nach dieser Definition würden auch Wachkomapatienten als tot gelten.

Ausschlaggebend für den Hirntod als Zeitpunkt des Todes waren durchaus pragmatische Gesichtspunkte. Hinzu kamen aber auch grundsätzliche Erwägungen: Die menschliche Individualität ist an die Struktur des Gehirns gebunden. Mit dem Verlust der Hirnfunktionen ist diejenige Eigenschaft verloren, auf der das Menschsein beruht. Daher sind für die Frage nach lebendig oder tot die konkreten Hinweise auf eine noch erhaltene bewusste oder wieder erreichbare Wahrnehmung relevant. Eine Existenz ohne Bewusstsein und Hirntätigkeit ist demzufolge kein menschliches Leben mehr. Ein Hirntoter mit schlagendem Herzen ist also kein Sterbender, „sondern eine Leiche mit künstlich aufrechterhaltener partieller Organfunktion“, wie es der Moraltheologe Eberhard Schockenhoff ausdrückt.

Der Tod des zentralen Organs, des Gehirns, wird demgemäß mit dem Gesamttod des Individuums gleichgesetzt. Allerdings folgt aus dem Ende der Hirntätigkeit nicht zwangsläufig der „Biologische Tod“ des Menschen. Es gibt Körperfunktionen, die nicht durch das Gehirn vermittelt werden und zumindest bei einigen Hirntoten noch vorkommen. Dazu zählt die Fähigkeit des Körpers, sich selbst zu regulieren, etwa Urin auszuscheiden, Blutdruck und Körpertemperatur zu managen oder Hormone zu produzieren, ferner die Fähigkeit, Wunden zu heilen und Infektionen zu bekämpfen, etwa durch Fieber, außerdem auf Stress zu reagieren (etwa bei Organentnahmen). Hirntote Kinder können weiterwachsen, Schwangere einen Fötus heranreifen lassen. Nach traditionell biologischem Verständnis gibt es daher Grund zum Zweifel daran, ob ein selbst ohne Gehirnfunktion atmender Patient vollständig tot ist.

Trotz erloschener Hirntätigkeit lassen sich Atmung und Herzschlag heute durch künstliche Maßnahmen länger erhalten. Kommt noch die künstliche Ernährung dazu, kann ein Patient nahezu unbegrenzt lange in diesem körperlichen Zustand bleiben. In San Francisco überstand ein Hirntoter mehrere Infektionen, bekam Schamhaare und verendete erst nach neun Wochen an einer Lungenentzündung. Die längste Überlebensspanne eines Hirntoten liegt bei 14 Jahren!

Im Sinne eines irreversiblen Verlusts körperlicher Integrität wäre also ein künstlich beatmeter Hirntoter keine Leiche. Erst das endgültiges Versagen aller lebenserhaltenden Vorgänge wäre dann das Ende eines Menschen. Als sichere Zeichen dafür gelten Leichenflecken und Leichenstarre. Für extreme Vitalisten endet das Leben gar erst, wenn der Organismus an keiner Stelle mehr Energie aufwendet, um seinem Zerfall entgegenzuwirken. Der Tod tritt nach dieser Auffassung erst in dem Moment ein, in dem die letzte Zelle die Fähigkeit verliert, „die Moleküle des Organismus zu einer funktionierenden Ordnung zusammenzuhalten“. Das kann je nach Außentemperatur manchmal sogar Tage dauern.

Die Grenzlinie zwischen Leben und Tod ist also nicht mit Sicherheit bekannt und lässt sich auch nicht so ohne weiteres festlegen. Daher sind sich alle einig, dass der Tod selbst eigentlich nicht zu definieren ist. Es können lediglich Kriterien zu seiner Feststellung bestimmt werden. Trotz aller Zweifel hat sich der Hirntod aber faktisch nahezu weltweit durchgesetzt und in Medizin und Recht weitgehende Anerkennung gefunden. Der Tod ist somit eine Verabredung auf der bestmöglichen Wissensbasis, eine Konvention, die entscheidend anhand medizinischer Daten, aber auch nach rechtlichen und ethischen Richtlinien festgelegt wurde.

Gedanken an den Tod

Der Mensch ist das einzige Lebewesen, von dem wir sagen können, dass es um die Unabwendbarkeit seines eigenen Todes weiß. Wann diese ungeheuerliche Erkenntnis unsere Vorfahren zum ersten Mal traf, ist unbekannt. Seitdem setzen sich Menschen in aller Welt mit ihrer Sterblichkeit, mit dem Wissen, dass die persönliche Welt aus Gedanken, Gefühlen und Erfahrungen mit dem eigenen Tod verschwindet, auseinander. Das löst zunächst einmal Angst aus. Der Tod erscheint als eine Bedrohung.

Unsere Psyche verweigert sich standhaft der Vorstellung an ein endgültiges Ende. Das existenzielle Dilemma unserer Situation scheint sich offenbar nur auf eine einzige Weise überwinden zu lassen: indem man die eigene Existenz in einen umfassenderen kosmischen Zusammenhang stellt. So erschufen sich die Menschen übernatürliche Welten, um das Unerklärbare zu erklären. Der Glaube an das Weiterleben nach dem Tod in einem wie auch immer gestalteten Jenseits spendet Trost und lindert bzw. überwindet den schmerzlichen Zustand der Zufälligkeit, Erklärungsnot und Zwecklosigkeit. Er hilft also, die Unwägbarkeiten und die Endlichkeit des Lebens zu ertragen und macht zugleich das Sterben leichter.

Schon die frühgeschichtlichen Totenkulte vor mehr als 80 000 Jahren legen die Vermutung nahe, dass die Vision vom Weiterleben nach dem Tod etwas Urmenschliches ist, etwas, das tief in uns ist und das unlösbar zum Menschsein dazugehört. So wandelte sich nach Ansicht der Wissenschaftler die existenzielle Angst vor dem erschreckenden Wissen um die eigene Sterblichkeit auf erstaunliche Weise letztlich in ein kulturstiftendes Instrument um. Der Mensch verließ und verlässt sich auf seine machtvollen und umfassenden Glaubens- und Regelsysteme, um die kosmische und existenzielle Bedrohung zu mildern.

Für Christen, Juden, Moslems und Naturreligionen ist der Tod ein Übergang, eine Brücke zwischen zwei Leben. Die Vorstellung vom Paradies, einem seligen Zustand ohne Krankheit, ohne Leid und Alter, das auf einen Auserwählte nach dem Tod wartet, entstammt vermutlich demselben Urwunsch nach ewigem Leben. In fernöstlichen und in Naturreligionen ist der Tod ein Neubeginn. So wird im Buddhismus und Hinduismus der Geist im Tod vom Körper getrennt und zieht in einen neuen Körper ein. Eine Theorie der Seelenwanderung und Wiedergeburt formulierte auch als erster Denker des Abendlandes der Naturphilosoph Pythagoras von Samos (um 2595 bis 2535 v. h.). Für Buddhisten endet Kreislauf der Wiedergeburten erst durch den Eingang ins Nirwana, eine andere Existenzweise (nicht vergleichbar mit dem Paradies).

Nahtod

Manche Forscher vertreten die These, dass die eigentliche biologische Grundlage für den Unsterblichkeitsglauben und generell für Religiosität Nahtoderfahrungen gewesen sein könnten. Darunter versteht man außergewöhnliche Bewusstseinszustände, die mit intensivem Erleben verbunden sind und an der Schwelle zum Tod auftreten können. Ihre Existenz ist unter Wissenschaftlern heute unbestritten. Zehn bis zwanzig Prozent der Menschen in verschiedenen Kulturen und über alle Alters- und Religionsgrenzen hinweg, die dem Tod nahe waren oder zu sein glaubten, erinnern sich an derartige Erlebnisse, auch wenn sie im Detail von Kultur zu Kultur und Mensch zu Mensch unterschiedlich ausgestaltet und oft an innere Motive, an persönliche Erfahrungen und Befindlichkeiten gebunden sind.

Charakteristisch für Nahtoderfahrungen ist meist ein Gefühl der Stille, des Friedens und des Glücks, eine Loslösung vom Körper und eine außerkörperliche Perspektive, von Bewegungen durch Dunkelheit oder einen Tunnel, an dessen Ende ein helles Licht erscheint, in das man eintaucht, ein Wiedersehen mit nahestehenden Menschen (z. B. verstorbenen Angehörigen) und eventuell einer Begegnung mit einem geheimnisvollen, göttlichen Wesen. Am Ende bricht die Erfahrung jedoch abrupt ab: Die, die sich gerade noch auf dem Weg in eine andere Welt wähnten, werden zurückgerissen und finden sich zu ihrer großen Enttäuschung im eigenen Körper wieder. Das reale Leben kehrt zurück – und damit auch die Angst.

[Aller körperliche Schmerz und auch jede sonstige Körperempfindung schwindet. Ein Gefühl des Friedens tritt auf, der Leichtigkeit, des Wohlbehagens. Man nimmt wahr, was um einen herum getan und gesprochen wird, empfindet alles als sehr real und kann es später oft präzise und mit nachprüfbaren Details beschreiben. Man fliegt durch einen Tunnel auf ein helles, warmes Licht zu. Je näher man dem Licht kommt, umso mehr Glücksgefühle entstehen. Die Grenzen zwischen Selbst und Umwelt verfließen und ein Gefühl des Einsseins mit der Welt stellt sich ein – man fühlt eine überwältigende Freude und völliges Glück. In den oft paradiesischen Naturlandschaften treten verstorbene Angehörige auf.

Einige berichten von der Gegenwart eines alles umflutenden Lichtwesens und einem Gefühl bedingungsloser Liebe und Güte. Manche berichten, ihr Leben habe sich wie ein rückwärts laufender Film vor ihnen abgespult, verbunden mit einer durchdringenden Selbstbewertung. Schließlich werden die meisten – oft gegen ihren Willen (sozusagen „auf höheren Befehl„) – zurückgeschickt. Meistens tritt man dann mit schmerzhaftem Ruck wieder in den Körper ein, was als ausgesprochen unangenehm und schmerzhaft erlebt wird. – Aber nicht nur positive Gefühle warten an der Schwelle zum Tod. Manche „Rückkehrer“ berichten auch von einem Gefühl der Panik oder unendlicher Leere – ja, sogar dem Blick in die Hölle.]

Nach einer Nahtoderfahrung sind sich die Menschen subjektiv ganz sicher, in einer Welt jenseits der unseren unterwegs gewesen zu sein. Für sie gibt es keinen Zweifel mehr an der Existenz Gottes und dem Weiterleben nach dem Tod im Jenseits. Für viele Betroffene verändert sich auch das diesseitige Leben für immer. Sie suchen eine innere Neuorientierung und wenden sich von äußeren, materiellen Werten (z. B. wirtschaftlichem oder gesellschaftlichem Erfolg) ab. Stattdessen stellen sie vermehrt Menschlichkeit und Spiritualität in den Mittelpunkt ihres Lebens. Radikale Berufswechsel, aber auch mehr Engagements für öffentliche Angelegenheiten, sind relativ häufig, allerdings auch Scheidungen. Zugleich wird das eigene Lebensgefühl und die Wertschätzung der verbleibenden Lebenszeit intensiver.

Auch Schamanen erzählen von Reisen in eine andere Welt, von einem Tunnel, von ihrem Tod und ihrer Rückkehr ins Leben. Sie erzählen vom Fliegen und wie sie über andere Menschen schweben. Ein erster Bericht über Nahtod-Erscheinungen stammt aus dem Gilgamesch-Epos, der ältesten schriftlich fixierten Dichtung aus dem 4. Jahrtausend v. h. In alten buddhistischen und christlichen Sammlungen gibt es zahlreiche Berichte über Himmelsvisionen, Höllenvisionen, außerkörperliche Erfahrungen und Lebensbeurteilungen im weitesten Sinne.

Auch die Entrückungen und Visionen religiöser und historischer Persönlichkeiten werden von vielen Wissenschaftlern als „Nahtod-Erlebnisse“ interpretiert: etwa die Himmelfahrt des Jesaja in den apokryphen Bibelschriften oder die des islamischen Propheten Mohammed. Der Zen-Buddhist erlebt im Erleuchtungserlebnis, dem „Satori“, die vollkommene Einheit von Ich und Welt. Der Mystiker sieht im Nichts das universelle Bewusstsein, das allen Kulturen bekannt ist: Hindus nennen es „Atman“, Christen „Heiliger Geist“, verschiedene Yoga-Schulen „Kundalini-Energie“.

Ursachen

Sind diese Erfahrungen tatsächlich Hinweise auf ein Sein nach dem Tod, wie es die Mythen und Religionen der Welt beschreiben? Oder sind es die letzten Bilder aus der Tiefe des Unbewussten, ehe Leib und Seele gemeinsam erlöschen?

Klar ist, Nahtod-Erfahrungen sind keine Nachtod-Erfahrungen, keine Berichte aus dem Reich der erloschenen Hirnfunktionen, sondern Erlebnisse aus dem Grenzbereich zwischen Leben und Tod. Es ist weitgehend unstrittig, dass sie noch bei funktionierendem Gehirn stattfinden. Denn wären alle Hirnfunktionen erloschen, wäre jede Möglichkeit, Erfahrungen – gleich welcher Art – zu sammeln, ein für alle Mal verloren. Für Hirnforscher steht daher außer Frage, dass Nahtoderlebnisse Schöpfungen unseres Gehirns sind. Bei schweren Hirnverletzungen ist eine solches Erlebnis kaum möglich, das gleiche gilt bei Ruhigstellung durch Medikamente.

Nahtod-Erfahrungen beruhen also offensichtlich auf Phasen eingeschränkter Funktionsfähigkeit eines Gehirns, das sich wieder erholt hat. Insofern verwundert es auch nicht, dass zentrale Aspekte von Nahtodberichten wie Tunnelvisionen und Außerkörpererfahrungen auch bei anderen Funktionsstörungen des Gehirns, auftreten, z. B. bei Schizophrenen oder beim Drogenmissbrauch.

Sauerstoffmangel (Hypoxie) wird besonders häufig als Teil-Erklärung für die transzendentalen Erlebnisse genannt. Zumindest kann künstlich erzeugter Sauerstoffmangel, etwa durch Untertauchen bei der Taufe im Urchristentum oder durch besondere Atemtechniken beim Yoga, transzendentale Erlebnisse vermitteln. Ebenso könnten diese Folgen eines Kohlenstoffdioxid-Überschusses sein. Zu viel Kohlenstoffdioxid stört das Säure-Base-Gleichgewicht im Gehirn – und das kann nach Untersuchungen Halluzinationen, Lichterscheinungen und Euphorie auslösen. (Allerdings sind „echte“ Nahtoderfahrungen sehr viel klarer und bleiben deutlich besser im Gedächtnis haften.)

Die Forscher haben festgestellt, dass die Gehirnwellen 30 Sekunden vor und nach einem Herzstillstand sehr auffällig sind. Veränderungen treten dabei vor allem in den sog. Gamma-Oszillationen auf, einem bestimmten Frequenzbereich der neuronalen Schwingungen, aber auch in anderen Frequenzbereichen. Die Gehirnaktivität ist in diesen Momenten äußerst hoch, die Wellen entsprechen denen, die sonst bei hochkognitiven Prozessen – z. B. bei Erinnerungen – auftreten. Auch bei intensiver Meditationspraxis werden Hirnströme im Gammaband verstärkt. Zwei bis drei Minuten nach dem Herzstillstand (bei Raumtemperatur) soll sich die Energie im Gehirn in einer elektrochemischen Welle entladen. Auch dieser Effekt könnte an den beschriebenen Nahtoderfahrungen beteiligt sein.

Erklärungen

Offenbar geht es bei den außergewöhnlichen, „außersinnlichen“ Erfahrungen mehr um Selbstwahrnehmungen des Gehirns und weniger um Eindrücke von der Außenwelt. Unser Gehirn funktioniert ja (nach den einflussreichsten Theorien) wie eine Vorhersagemaschine, die anhand früherer Erfahrungen, Erwartungen oder Überzeugungen ständig und aktiv plausible neuronale Vorhersagen über zu erwartende Reize erzeugt. Diese werden mit aktuellen sensorischen Daten kombiniert und führen zu unserer tatsächlichen Wahrnehmung. Es handelt sich dabei also um eine Interpretation, eine „kontrollierte Halluzination„, wie es manche Wissenschaftler ausdrücken. Gibt es keine sensorischen Informationen mehr, fehlt die Kontrolle über die Vorgänge im Gehirn.

Die verantwortlichen Hirnzentren für die Verortung des Ichs arbeiten routinemäßig multiperspektivisch. Allerdings wird diese normale Fähigkeit durch die laufenden Sinnesempfindungen (vor allem visuelle und taktile Sinnesreize) und unser Selbstmodell (womit das Gehirn den Körper repräsentiert) permanent unterdrückt. Die sehr stabil erlebte subjektive Verortung unseres Ichs innerhalb des Körpers ist also eine Konstruktion des Gehirns. Sie kann aber erwiesenermaßen auch bei gesunden Probanden leicht manipuliert werden, z. B. durch geschickte Sinnestäuschung per virtueller Realität. Auch in Erinnerungen sehen wir uns oft aus einer Perspektive, die wir in Wirklichkeit nie einnehmen.

Nicht nur für „Out-of-Body-Erfahrungen“, sondern auch für Tunnel- und Lichtvisionen gibt es eine physiologische Erklärung. Vermutlich sind diese in der Architektur der Sehrinde begründet: In den Zentren der optischen Felder sitzen die Nervenzellen viel dichter und sind stärker miteinander verschaltet als am Rand. Wenn jetzt die Nervenzellen in der Sehrinde chaotisch reagieren, erscheint ein helles Lichts in der Mitte des Sehfelds, das zu den Rändern hin verblasst. So entsteht der Eindruck eines Tunnels. Und während der Effekt immer stärker wird, glaubt man, sich rasch auf das Licht zuzubewegen.

Auch Piloten von Überschalljets verlieren durch hohe Beschleunigung kurzfristig das Bewusstsein und berichten davon, einen langen Tunnel gesehen zu haben, an dessen Ende ein helles Licht erstrahlte. Dabei ist nahezu jede Bewusstlosigkeit von angenehmen Gefühlen begleitet – bis hin zu Euphorie.

In Extremsituationen schüttet das Gehirn u. a. endogene Halluzinogene (z. B. Opiate) aus, die ein großes Glücksgefühl hervorrufen. (Denken wir in diesem Zusammenhang auch an den „Runner’s High„, einen euphorischen Zustand beim Laufen, der die Anstrengung vergessen lässt.) Ist das Gefühl für Körperempfindungen und damit auch für Raum und Zeit nicht mehr vorhanden, entsteht das Einheitsgefühl mit dem Universum, von dem auch Mystiker aller Kulturen berichtet haben (Unio mystica, Nirwana, Tao, Brahman-Atman usw.). Es tritt ebenfalls bei LSD-Gebrauch auf, allerdings in verzerrter Form.

Lebensfilm-Bruchstücke bzw. plötzliche Erinnerungen können auch durch elektrische Stimulation bestimmter Stellen im Gehirn ausgelöst werden. Für die Stimme, die den Rückzug ins Leben befiehlt, gibt es mittlerweile eine Erklärung: Nach dem Nahtod-Erlebnis ist das Bewusstsein anfangs noch gespalten. Zum Teil befindet sich der Betroffene noch im tiefen Schlafbewusstsein, zum Teil versucht das Gehirn schon, die Situation zu kommentieren. Das tiefe Schlafbewusstsein bemerkt das Kommentieren und nimmt es als fremde Stimme wahr, so dass innerhalb ein- und desselben Gehirns ein Dialog stattfindet (ähnlich wie bei Schizophrenen, zu denen eine fremde Stimme spricht).

Das Phänomen des Nahtoderlebnisses scheint also kein Hinweis auf ein Leben nach dem Tod zu sein. Mitunter treten ähnliche Erscheinungen auch in der Hypnose auf, in durch Rhythmus oder Musik ausgelöster Trance oder unter Einfluss von bestimmten Drogen. Man kann Gefühle von Zeitstillstand, Körpererweiterung, Ich-Entgrenzung oder Erscheinungen sogar künstlich erzeugen. Die spirituelle oder religiöse Deutung der Empfindungen hängt dabei vom biografischen und kulturellen Kontext ab.

Die neurophysiologischen Erklärungen sind durchweg seriös und sehr plausibel und erhellen uns die körperlichen Voraussetzungen für die Erlebnisse an der Schwelle zum Tod. Doch reichen indes die Ergebnisse der Forschung noch nicht aus, um alle Befunde zu erklären. Für manche Menschen ist damit die Frage nach dem Fortbestand des Bewusstseins oder der Seele nach dem Tod hinaus nicht endgültig beantwortet.

Wissen um die Sterblichkeit

Viele flüchten sich angesichts des Todes in Glauben, in Ideologie oder Esoterik – verbunden mit einem Sprung aus der Vernunft. „Offenbar gibt es keine Vorstellung, wie seltsam sie auch sein mag, an die Menschen nicht zu glauben bereit sind, wenn sie ihnen nur Hoffnung auf eine Form der Ewigkeit ihrer Existenz macht“, schreibt der Soziologe Norbert Elias. Rational aber haben wir keine Deutung für ein Weiterleben nach dem Tod. Für Sören Kierkegaard, dem Vorläufer der Existenzialisten, ist es allein deshalb nicht vorstellbar.

Der Tod bedeutet also wohl das absolute Ende. Der Mensch muss intellektuell stark sein, das ohne Auswege anzuerkennen. Seneca schrieb in seinen Briefen: „Der Tod jedoch, der sich erst nähert, aber doch unvermeidlich kommt, verlangt gelassenen, festen Mut, und der ist selten und findet sich nur bei Weisen … Wer den Tod ablehnt, lehnt das Leben ab. Denn Leben ist uns nur mit der Auflage des Todes geschenkt; es ist sozusagen der Weg dorthin.“

In der Antike konnte man die Grenze der Lebensspanne über den Ruhm respektieren: Der epische Held lebt in seinen Taten fort. Heute treten andere Dinge an deren Stelle, allen voran Kunstwerke. Kreativität kann zum Vehikel werden, die Sterblichkeit zu überwinden. Für viele Mensch, vor allem in der westlichen Welt, wird die begrenzte Lebensspanne zunehmend in ökonomische Dimensionen gezwängt – als Ressource, die es optimal zu nutzen gilt. Leben heißt dann: die 80 Jahre, die im Schnitt zur Verfügung stehen, dafür nutzen, das meiste rauszuholen.

Der altgriechische Philosoph Epikur lehrte, der Tod brauche uns nicht zu beunruhigen, denn alles beruhe nur auf Wahrnehmung: „Das schauerlichste Übel also, der Tod, geht uns nichts an; denn solange wir existieren, ist der Tod nicht da, und wenn der Tod da ist, existieren wir nicht mehr. Folglich geht er weder die Lebenden an noch die Toten, denn die einen betrifft er nicht und die anderen sind nicht mehr.“

Doch sollte der Tod keineswegs verdrängt werden. Vielmehr ist es angebracht, sich bewusst mit der eigenen Lebensspanne auseinanderzusetzen und Strategien für den Umgang mit der schwersten Bedrohung des Ichs zu entwickeln. „Philosophieren heißt Sterben lernen!“ formulierte der Aufklärer Michel de Montaigne (1533 – 1592). Damit meinte er die Haltung, die auf das Leben als Ganzes blickt – quasi aus der Perspektive des eigenen Endes. Das Wissen, zugleich vergänglich und einzigartig zu sein, kann würdigen, was das Leben zu bieten hat.

Wer reflektiert, dass das eigene Leben ein Ende hat, ist auf die besondere Bedeutung dieses Ereignisses eingestellt und wird durch dessen Eintritt nicht überrascht. „Ich erhoffe nichts, ich fürchte nichts, ich bin frei!“ steht auf dem Grabstein des kretischen Dichters Kasanzakis in Iraklion geschrieben. Viele alte Menschen leiden kaum unter Todesangst. Der Tod ist eher ein Problem für die Überlebenden als für die Sterbenden. Aber die Angst vor dem Ungewissen oder gar vor Zuständen der Zersetzung gibt es auch bei jenen Menschen, welche ihrer eigenen Endlichkeit gefasst gegenüberstehen.

Nach übergroßer Lebensgier, nach maßlos Fürchten, Hoffen, Sehnen, wissen dem Gott wir Dank dafür – wen immer wir im Himmel wähnen -, dass Leben nie kann ewig währen, dass Tote niemals wiederkehren, dass Flüsse müd‘ nach vielen Wehren endlich doch ins Meer einströmen.

Algernon Swinburn

(aus dem Gedicht „Der Garten der Proserpina“)

REM

Gefahr aus dem Erdinneren

         Plumes und Hotspots

Ausbruch des Laacher Sees

Vor über 13 000 Jahren erschütterte eine Vulkaneruption, die gewaltigste in Mittel- und Westeuropa innerhalb der letzten 100 000 Jahre, die Eifel, Teil des Rheinischen Schiefergebirges im Westen Deutschlands. Der Ausbruch war wesentlich größer als der des Mount St. Helens in den USA im Jahre 1980. Asche, Lava und Gesteine wurden in die Höhe geschleudert. Die Aschesäule stieg in nicht einmal einer Stunde 40 Kilometer hoch in die Stratosphäre.

600°C heiße Glutlawinen und Ascheströme breiteten sich mit hohen Geschwindigkeiten aus. Um den Vulkan lagerte sich Lockermaterial in einer 30 Meter hohen Schicht aus Tuff (hellem Gestein aus Vulkanasche) und Bims (poröses Lavagestein) ab. Schließlich wurde die gesamte Eifel unter einer fünfzig Meter hohen Ascheschicht begraben. In der Atmosphäre driftete die Asche sogar bis nach Schweden und Norditalien.

Das ausgeschleuderte Material versperrte dem Rhein an der Mündung des Brohlbachs den Weg und ließ einen riesigen Stausee von mindestens 140 Kilometer Länge entstehen. Der spätere Bruch des Damms muss eine über zehn Meter hohe, verheerende Flutwelle (Tsunami) ausgelöst haben, die bis in die Nordsee schwappte. Als sich die Magmakammer des Vulkans geleert hatte, brach ihre Decke ein und es bildete sich die Caldera, in der sich heute der Laacher See befindet.

Verantwortlich für den verheerenden Vulkanausbruch war der sogenannte Eifel-Plume, der hier zwischen 45 und 400 Kilometer tief im Erdmantel liegt.

Plumes

Plumes („Rauchfahnen“) sind eine Art irdischer Kamine, in denen geschmolzenes Gestein tief aus dem Erdmantel von der Hitze getrieben nach oben steigt wie Rauch durch einen Schornstein. Im Aufstrombereich bildet es eine pilzförmige Blase.

Verursacht werden Plumes (im Fachjargon „Mantelplumes„) möglicherweise durch Teile ozeanischer Kruste (Erdplatten), die an Subduktionszonen abgetaucht und bis hinab an den unteren Rand des Erdmantels gelangt sind und sich dort angesammelt haben. Im Laufe von vielen hundert Millionen Jahren bilden sich durch die Heizung des äußeren Erdkerns oder durch Phasenübergänge des Gesteins heiße Blasen („Hot Blobs„). Sie besitzen die Konsistenz eines Knetgummis und haben einen Durchmesser von rund 300 bis 1000 Kilometern.

Diese Plumes steigen pulsartig im Erdmantel auf – wie Blasen in einem Topf kochenden Wassers, allerdings deutlich langsamer. Sie bahnen sich mit einem Tempo von nicht mehr als zehn Zentimetern im Jahr den Weg durch das Gestein des Erdmantels, und machen so den Weg frei für weitere vom Erdkern aufgeheizte Massen. Dreißig bis fünfzig Millionen Jahre brauchen die Plume-Köpfe, bis sie die Obergrenze des Erdmantels erreichen. Allerdings verwundert es, dass die Plumes oberhalb einer Tiefe von rund 1000 Kilometern teils nicht mehr gerade verlaufen, sondern abbiegen und seitlich versetzt ihren Aufstieg fortführen, möglicherweise aufgrund einer Zustandsänderung des Materials, verursacht durch abnehmenden Druck und sinkende Temperatur. Unter der Erdkruste verbreiten sich die Plumes pilzartig. Aus ihrem Material können an der Erdoberfläche Vulkane gespeist werden.

Hotspots

Wo die glutflüssigen Gesteinsmassen (weit über 1100°C heiß) an der Oberfläche ankommen, sprechen Geologen von einem Hotspot (heißen Fleck). Hier drückt das glühende Material unerbittlich von unten gegen die Erdkruste und wölbt sie an dieser Stelle nach oben. Inzwischen weiß man, dass viele Hotspots genau über dem Rand von Plattengräbern liegen, andere befinden sich über deren Mitte.

Da die kontinentale Kruste aus Granit recht gut isoliert – viel besser jedenfalls als die dünne ozeanische Kruste aus Basalt -, fließt das Magma seitlich ab oder kann relativ nahe unter der Oberfläche (ca. 50 Kilometer) stecken bleiben. Im letzteren Fall sammelt es sich in kilometergroßen Kammern an und kann unter Umständen langsam abkühlen und erstarren. Nach Millionen von Jahren haben sich auf diese Weise feste Gebirgsarten daraus gebildet, die an die Oberfläche gepresst werden können. Man kennt solche freigelegten Magmakammern mit geringer oder keiner Vegetation u. a. von den Polargebieten. Besonders ausgeprägt sind sie in den Dry Valleys in der Antarktis, wo kein Baum und kein Strauch auf den Ablagerungen wächst.

Die meisten Hotspots unter den Ozeanen waren oder sind vulkanisch aktiv. Das Magma schmelzt hier die basaltische Erdoberfläche an und brennt sich schließlich durch die Kruste. Diese Vulkanausbrüche verlaufen still und ruhig: Die heiße Masse aus dem Erdinneren wird tropfenförmig nach oben gepresst, flüssige Lava tritt aus und erkaltet – neue Erdkruste entsteht. Im Meer wachsen die Vulkanberge zu beträchtlicher Größe und können nach einiger Zeit sogar mehrere tausend Meter über den Meeresspiegel aufragen. So wurden Inseln hervorgebracht, wie etwa die Kanaren und Azoren im Nordatlantik oder Madagaskar und die Hawaii-Inseln. Madagaskar ist vermutlich eine junge Erhebung, die sich offenbar erst innerhalb der letzten zehn Millionen Jahre entwickelt hat.

In der Erdgeschichte sind schon gewaltige Mengen Lava aus den durch Plumes entstandenen Vulkanen ausgetreten. Man geht davon aus, dass auf diese Art mindestens 10% der gesamten Erdoberfläche ein Stempel aufgedrückt wurde, vielleicht sogar 40%! Mehrere Dutzend von relativ eng begrenzten vulkanisch aktiven und tief im Erdmantel verankerte Regionen sind über den Globus verteilt. Insgesamt haben die Wissenschaftler bisher fast 50 Hotspots identifiziert.

Entstehung eines mittelozeanischen Rückens

Manchmal schmelzt ein Plume einen ganzen Kontinent von unten an – oft an einer Schwächezone in der Kontinentalplatte – und dünnt ihn aus. Die heißen Strömungen üben zusammen mit anderen tektonischen Kräften an dieser Stelle eine Zugspannung auf das Gestein aus. Im weiteren Verlauf bildet sich ein Grabenbruch oder Rift Valley. In dessen Senke ergießt sich bei Vulkanausbrüchen die Lava und erstarrt zu Basalt.

Die tektonischen Kräfte ziehen die beiden Seiten des Riffs weiter auseinander und der Graben senkt sich weiter ab. Schließlich gelangt er unter den Meeresspiegel, so dass er überflutet wird und sich im Laufe langer Zeit ein neuer Ozean bildet. Die Vulkane des Grabenbruchs bilden dann den ozeanischen Rücken, an dem fortwährend neue Erdkruste zwischen den beiden auseinanderdriftenden Bruchstücken des alten Kontinents entsteht. Genau so könnte z. B. vor 135 Millionen Jahren der Mittelatlantische Rücken entstanden sein, der heute Afrika und Südamerika voneinander trennt (und ebenso Nordamerika und Europa).

Vielleicht spielen Hotspots also eine wichtige Rolle bei der Entstehung von Platten. Ob allerdings Plumes einen Einfluss auf die Bewegung der riesigen Kontinentalplatten haben, ist unklar. Jedenfalls dürfte er gering sein.

Neue Vorstellung

Das Konzept der Plumes steht heute auf dem Prüfstand. Immer mehr Untersuchungen belegen, dass die klassische, über 50 Jahre alte Hotspot-Theorie so nicht stimmen kann. Inzwischen sind selbst die beiden grundlegenden Eigenschaften, die Plumes haben sollen, in die Schusslinie geraten: nämlich dass sie von ganz tief unten, der Kern-Mantel-Grenze, aufsteigen und dass ihr sichtbarer Teil, der Hotspot, ortsfest ist.

Ungefähr jeder zweite Hotspot, so wurde mittlerweile festgestellt, ist nicht heiß genug, um mittels Auftrieb aus dem tiefen Erdmantel aufzusteigen. Manche Forscher halten es für denkbar, dass die absinkenden Ozeanplatten sich direkt oberhalb der sogenannten D“-Schicht, dem untersten Teil des Erdmantels, ablagern oder auch irgendwo mitten im Erdmantel stecken bleiben. Sie könnten dort heiße Materie verdrängen, die dann als Plume zur Erdoberfläche gelangt – und nur die heißesten Hotspots hätten ihren Ursprung an der Kern-Mantel-Grenze. Denkbar scheint allerdings ebenso, dass klassische Hotspots auf dem Weg nach oben manchmal stecken bleiben und abkühlen, oder die vermeintlich kühlen Plumes klein sind, und ihre Temperatur deswegen unterschätzt wird.

Dass Plumes tief aus dem Erdmantel aufsteigen, scheint also zwar weiterhin denkbar. Doch ihre Quellregion müsste umherwandern oder die aufsteigende Magmasäule durch Fließvorgänge im Mantel (Konvektionsströmungen) verbogen werden. Modellrechnungen legen jedenfalls nahe, dass Hotspots ein paar Millimeter im Jahr weiterwandern können. Von den rund 50 bekannten Hotspots gelten inzwischen allenfalls noch sieben als ortsfest. Bald könnte es kein einziger mehr sein.

Dass mit dem Gesetz der Ortsfestigkeit etwas nicht stimmen kann, war schon länger aufgefallen. Denn es ist unmöglich, das Puzzle der Kontinente im Laufe der Erdgeschichte immer wieder so zusammenzusetzen, dass die Lage der Hotspots fest bleibt.

Platten und Hotspots wandern also gleichermaßen, und wir sehen den kombinierten Effekt beider Vorgänge. Alles, was aus dem alten Konzept abgeleitet wurde – von der Klimageschichte bis zur Wanderung der Pole -, enthielt somit Fehler. Beispielsweise bestimmten Geologen auf der Basis ortsfester Hotspots die ehemaligen Positionen der Pole. Demnach sollte sich die Stelle, an der die Erdachse aus dem Globus ragt, in den letzten 130 Jahren um bis zu 20° gedreht haben. Die neuen Funde widersprechen dem: Statt der Pole sind nur die Hotspots gewandert.

Wandernde Inselvulkane

Wenn nach vielen Jahrtausenden der Lavanachschub für einen Hotspot-Vulkan versiegt, schrumpft er, bis er irgendwann wieder unter dem Meeresspiegel verschwindet. Längst hat sich bis dahin der Hotspot selbst bereits etliche Kilometer entfernt und erneut durch die Erdplatte geschweißt: Ein neuer Vulkan ist entstanden und damit eine neue Insel. So können im Laufe von Jahrmillionen ganze Inselketten entstehen, wie beispielsweise die Galapagos-Inseln.

Auf dem Pazifikboden bilden auch die Inseln von Hawaii das Ende einer Vulkankette (5800 Kilometer lang), der sogenannter Hawaii-Emperor-Kette, die bis vor die russische Halbinsel Kamtschatka hinaufreicht. Nach der alten Vorstellung lag der zugehörige Hotspot die ganze Zeit unveränderlich bei etwa 19°N, während die Pazifische Platte um etwa 10 Zentimeter pro Jahr Richtung Nordwesten darüber hinwegdriftete. Er lag aber vor rund 75 Millionen Jahren auf der Breite von 75°N – weit entfernt von seiner heutigen Position.

Innerhalb der letzten 80 Millionen Jahre wurde an diesem Hotspot ein Vulkan nach dem anderen aus dem Meeresboden gebrannt. Der älteste Vulkan der gesamten Kette, vor rund 80 Millionen Jahren aktiv, ist der Detroit Seamount in der Nähe der Halbinsel Kamtschatka. 35 Kilometer südlich von Hawaii ist der Unterseevulkan Loihi bereits drei Kilometer hoch gewachsen. Noch tausend Meter bis zur Wasseroberfläche – und die nächste Insel der Hawaii-Kette wird geboren.

Vor etwa 47 Millionen Jahren änderte die Vulkankette offenbar plötzlich ihre Bewegungsrichtung und bog in einem 60°-Winkel nach Südosten ab. Ursprünglich erklärten sich die Geologen diesen Knick damit, dass sich die Bewegung der Pazifischen Platte abrupt geändert hat. Auslöser dieses Abbiegens könnte die Izanagi-Platte gewesen sein, die einst zwischen Hawaii und Japan die Pazifische und die Eurasische Platte voneinander trennte. Ihre letzten Reste verschwanden vor rund 47 Millionen Jahren endgültig in der Tiefe. Als dieser Widerstand verschwunden war, könnte eine andere Platte die Pazifische Platte umgelenkt haben. Zusammen mit der Richtungsänderung der Pazifischen Platte erklärt die Hotspot-Wanderung den Knick in der Vulkankette noch besser. Trotzdem ist vieles noch unklar.

Weitere Plumes

Plumes findet man zum Beispiel auch unter dem Ätna, der Eifel, Island und der Insel Reunion. Die Vulkaninsel Reunion östlich von Madagaskar ist der Hotspot, der einst das Dekkan-Trapp-Plateau in Indien entstehen ließ. Damals bewegte sich der Subkontinent über den neu entstandenen Mantelplume, der gewaltige Eruptionen verursachte (s. u.). Heute noch ist die Blase aus heißem und geschmolzenem Gestein in abgeschwächter Form noch aktiv und speist den Vulkanismus auf Reunion.

Der Vulkanismus in der Eifel begann schon vor 50 Millionen Jahren. Die meisten Vulkane brachen vor 45 bis 35 Millionen Jahren aus, bevor es wieder vor einer Million bis 10 000 Jahren erneut brodelte. Der Vulkanismus der Osteifel, dem Gebiet um den Laacher See, begann vor 650 000 Jahren. Es gab drei Ausbruchsphasen mit jeweils wenigen größeren explosiven Ereignissen und zahlreichen harmloseren Eruptionen, bei denen Hunderte kleiner Aschekegel entstanden. Dazwischen beruhigte sich der Untergrund für 100 000 Jahre oder länger.

Der Yellowstone-Supervulkan besitzt zwei Magmakammern und hat bei seiner letzten großen Eruption vor 630 000 Jahren – der dritten innerhalb von 1,5 Millionen Jahren – den gesamten Südwesten der heutigen USA unter einer bis zu 400 Meter hohen Ascheschicht begraben. Durch den Einsturz der Erdkruste über den sich leerenden Magmakammern entstand ein riesiger Krater. Unterhalb der Caldera sammelt sich bis heute glühendes Magma aus dem Erdinneren. Davon zeugen heiße Quellen und spektakuläre Geysire im (darüber gelegenen) Yellowstone-Nationalpark.

Zwischen 1923 und 1985 hob sich die Caldera um etwa 70 Zentimeter, danach senkte sie sich allerdings wieder. Seit 1995 steigt ihr Boden erneut – und zwar in Rekordtempo. Möglicherweise dringt neue Gesteinsschmelze von unten in die ehemalige Magmakammer ein. Allerdings droht in naher Zukunft kein Ausbruch, da erst 35 bis 50% an Magma vorhanden ist, das für eine Eruption notwendig wäre.

Vor 55 Millionen Jahren stieg eine Blase, der sogenannte „Isländische Blob“ auf, die aber größtenteils nicht an die Oberfläche gelangte, sondern sich unterhalb der tektonischen Platten ringförmig unter dem Nordatlantik ausbreitete. Wie eine riesige Welle drückte sie dabei den Meeresboden kurzzeitig nach oben. Die Quelle des heißen Gesteins war wahrscheinlich der Hotspot, der sich heute unter Island befindet. Damals befand sich wahrscheinlich Grönland über dem Hotspot.

Der wandernde Blob unter dem Nordatlantik könnte dafür verantwortlich gewesen sein, dass vor 55 Millionen Jahren die Temperaturen kurzzeitig um 4 bis 5°C weltweit anstiegen und am Nordpol Palmen wuchsen und sich Krokodile tummelten. Denn er hatte den Meeresboden nach und nach angehoben, wobei größere Mengen an Methanhydrat im Meeresboden zerfallen sein könnten. Methan und sein Zerfallsprodukt Kohlenstoffdioxid gelangten so in die Atmosphäre und erwärmten sie – mit drastischen Folgen: Viele der damals bekannten primitiven Säugetierarten verschwanden von der Erde. Unter den Gewinnern des Klimawandels waren die Primaten, also unsere Vorfahren.

Der Hotspot unter Island pulsiert nach wie vor. Genau darüber befindet sich der Mittelatlantische Rücken, der hier über die Wasserfläche hinausragt. Dieser ozeanische Rücken hat das Zentrum des Aufstroms also gleichsam überfahren – nur Island mit dem Vatnajökull-Gebiet als Zentrum des Vulkanismus ist quasi hinter der allgemeinen Bewegung zurückgeblieben – warum ist noch unklar.

Superplumes

Verschiedene kleine Plumes können sich zu besonders riesigen pilzartigen Paketen heißen Gesteins vereinigen, sogenannten Superplumes. Diese können einen ganzen Kontinent nach oben drücken und bis zu zwei Kilometer hohe Beulen verursachen. Sie können den Boden von unten aufschmelzen und merklich ausdünnen und sogar sprengen, wenn auch erst nach vielen Hundert Millionen Jahren. Heftiger Vulkanismus kann dann Unmengen dünnflüssiger Lava auswerfen und damit große Teile des Kontinents bedecken. Vielerorts auf der Erde findet man diese „magmatischen Großprovinzen„, Basaltablagerungen (Flutbasalte) von mehreren Millionen Kubikkilometern. In Sibirien entstanden Flutbasalte vor 250 Millionen Jahren, in Indien vor 65 Millionen Jahren (die Dekkan-Trapps) und im Westen der USA vor 14 bis 17 Millionen Jahren (Columbia-Plateau).

Flutbasalte könnten für die größten Katastrophen in der Erdgeschichte mitverantwortlich sein, als in kürzester Zeit jeweils ein großer Teil der biologischen Arten ausstarb. Denn bei solch verheerenden Vulkanausbrüchen gelangen auch Unmengen an klimawirksamen Gasen wie Kohlenstoffdioxid in die Atmosphäre. Sofern Eruptionen am Meeresgrund stattfanden, änderten sie die chemische Zusammensetzung des Meerwassers sowie die Meeresströmungen.

Nach dem Geophysiker Nazario Pavoni gibt es weltweit heute nur zwei große Aufstromgebiete. Diese heißen Zonen sollen jeweils eine halbe Erdkugel im Griff haben. Das eine ist der Pazifische Superplume im Südwestpazifik, das andere der Afrikanische Superplume.

Der Pazifische Superplume besitzt einen Durchmesser von mehreren Tausend Kilometern. Er soll dafür verantwortlich sein, dass vor etwa 700 Millionen Jahren der Superkontinent Rodinia zerbrach. Etwa gleichzeitig trennten sich Nordamerika, Südamerika und Afrika voneinander – vermutlich durch einen zweiten Superplume.

Vor etwa 300 Millionen Jahren waren alle Kontinente in dem Superkontinent Pangäa wieder vereinigt. Vor knapp 200 Millionen Jahren brach der Koloss für geologische Verhältnisse ziemlich rasch entlang der heutigen mittelozeanischen Rücken auseinander. Wahrscheinlich war auch hier ein gewaltiger Superplume dafür verantwortlich, dessen Strahl den Kontinent zerriss. (Zehn Millionen Jahre vorher war es auf den damals noch zusammenhängenden Kontinenten Nordamerika, Afrika und Südamerika zu gewaltigen Vulkanausbrüchen gekommen.) Die Bruchstücke des zerborstenen Kontinents entfernten sich allmählich voneinander, wobei sich zwischen ihnen entstandene Meeresarme schließlich zu Ozeanen erweiterten.

Der Afrikanische Superplume

Vermutlich war es der Afrikanische Superplume, der Pangäa aufbrechen und vor 150 Millionen Jahren auch Gondwana, den südlichen Teil Pangäas (aus den Kontinentalplatten von Südamerika, Afrika, Indien, Australien und Neuseeland) bersten ließ. Er erstreckt sich heute vom unteren Erdmantel aus etwa 1500 Kilometer nach oben und pilzt direkt unter dem südlichen Afrika und Südatlantik sternförmig auf. Sein Ursprung liegt in den Plattengräbern, die bei der Vereinigung Gondwanas entstanden.

Das südliche Afrika lag im Zentrum Gondwanas. Daher wurde der Mantel darunter weder damals noch in den Jahrmillionen seither von abtauchenden Platten gekühlt. Und so heizte er sich allmählich auf. In gewissem Sinn ist Indonesien der Gegenpol zu Afrika: Hier tauchten wie einst überall rund um Gondwana kalte ozeanische Platten in den Mantel ab und sorgen für Kühlung. Heute wird das asiatische Inselreich hinab gezogen, der schwarze Kontinent dagegen hochgedrückt.

Das riesige heiße Gebilde unter Afrika hat also genügend Auftrieb, um die Erdkruste in Afrika zu heben. Der ganze Kontinent scheint aufzugehen wie ein Hefeteig. Die hitzige Aufwallung kann ihre Kraft besonders wirkungsvoll entfalten, weil sie immer an derselben Stelle nagt. Denn die afrikanische Platte steht seit rund 25 Millionen Jahren still – ein ruhender Pol im weltweiten Geschiebe der tektonischen Platten. Seit fast 400 Millionen Jahren fand keine Plattenkollision mehr statt.

Magma, das keinen Weg weiter nach oben und durch die Erdkruste findet, fließt zur Seite ab und neues heißes Material aus der Tiefe strömt nach. Vom südlichen Afrika aus biegt der große Strom heißen Gesteins daher nordöstlich ab und endet unter Ostafrika. Beulenartige Strukturen, jeweils mehr als 1000 Kilometer weit, findet man sowohl in Uganda, Kenia und Tansania als auch im Afar-Dreieck, in Äthiopien und im Jemen. Der Hitzestau schafft es hier, die 40 Kilometer mächtige Gesteinskruste in Ostafrika mürbe zu machen und ausgeprägten Vulkanismus hervorzurufen.

Das Hochland von Äthiopien stieg vor 30 Millionen Jahren auf, als sich im Erdmantel darunter eine heiße Blase aus Gesteinsschmelze bildete, die zeitweise bis zur Erdoberfläche durchbrach. Eine Flut dünnflüssiger Lava ergoss sich in einem Umkreis von 500 Kilometern und schuf die Hochplateaus von Äthiopien, Somalia und Jemen. Seitdem existiert dieser Plume unterhalb der ostafrikanischen Region und wölbt das Gebiet empor, weshalb es seine relative Höhe ziemlich konstant hält. Mehr noch: Die horizontalen Konvektionsäste im Mantel, die radial vom Plume fortströmen, zerren am geschwächten Kontinent, bis sie ihn schließlich am Ostafrikanischen Graben auseinander reißen werden.

Der Afrikanische Superplume ist größtenteils für eine Anomalie im Indischen Ozean verantwortlich, eine besonders ausgeprägte Delle im Schwerefeld der Erde: der Indian Ocean Geoid Low (IOGL). Sie besteht aus heißem Material mit geringer Dichte, die aus dem Afrikanischen Blob fließt, und sich über mehr als drei Millionen Quadratkilometer etwa 1200 Kilometer südwestlich der Südspitze Indiens erstreckt. Wahrscheinlich nahm das Geoidtief seine heutige Form vor 20 Millionen Jahren an, als der Plume begann, sich im oberen Mantel auszubreiten. Sobald diese Strömung aufhört, wird auch das Tief verschwinden.

Eifel-Plume

Unter Mitteleuropa befindet sich in einem im Durchmesser rund 500 Kilometer großen Gebiet mit dem Zentrum unterhalb des Städtedreiecks Saarbrücken -Frankfurt-Stuttgart in einer Tiefe zwischen 660 und 2000 Kilometer ein Riesenplume, der einige andere europäische Plumes speist, darunter den Eifel-Plume. Dessen Vulkanismus ist bis heute nicht erloschen, was schwache Beben und eine anhaltende Hebung des Untergrund um ein bis zwei Millimeter pro Jahr belegen. Das Magma des Eifel-Plumes weist heute bis 400 Kilometer tief nach unten. Es gibt Indizien dafür, dass die Magmaproduktion hier weitergeht und das kristalline, aber zähplastische Gestein des Erdmantels sehr langsam aus der Tiefe nach oben steigt. Die ortsfeste Aktivität gilt daher als „recht müde„.

Wegen des gebremsten Nachschubs kann sich die Schmelze unter der Oberfläche über lange Zeiträume ansammeln und infolge der Abkühlung entmischen. Ständig blubbert daher Kohlenstoffdioxid aus der Tiefe nach oben – in einem jährlichen Umfang von rund 0,5 bis 1 Million Tonnen. Die Gase können einen Ausbruch explosiv machen. Sobald nämlich die Schmelze einen Weg an die Oberfläche gefunden hat, vermindert sich der Druck, und das zuvor gelöste Gas dehnt sich explosionsartig aus.

Irgendwann kann und wird es jedenfalls wieder zu Ausbrüchen kommen. Ob das allerdings in wenigen Monaten oder erst in 10 000 Jahren passiert, lässt sich derzeit nicht sagen.

REM

Die Naturkonstanten

Wenn man die Vielfalt der Welt systematisiert und durch mathematische Gesetze beschreibt, entdeckt man in allen wesentlichen Gleichungen jene mysteriösen konstanten Zahlenwerte: die Naturkonstanten. Sie sind die Säulen, auf denen das gesamte Gebäude der Physik ruht – oder sie sind, wie der Physiker und Philosoph John D. Barrow es formuliert, „der heilige Gral der Physik“. Wegen ihrer zentralen Bedeutung für die Natur des Universums und die Existenz aller Lebensformen haben die Physiker ein großes Interesse daran, ihre Werte so präzise wie möglich zu kennen. Allerdings hat man bei manchen Konstanten bereits erhebliche Mühe, den heutigen Wert mit der erforderlichen Genauigkeit zu bestimmen.

Im Rahmen der Allgemeinen Relativitätstheorie werden Naturkonstanten als echte Konstanten angenommen, die weder von der Zeit noch von der jeweiligen kosmologischen Entwicklung abhängen, d. h., sie sollten auch in anderen Teilen des Universums und zu anderen Zeiten die gleichen Werte besitzen. Sie müssen als naturgegeben hingenommen werden. Im Gegensatz dazu sind die Einheiten, die wir in unserem Alltagsleben verwenden, willkürlich.

Albert Einstein glaubte, wie auch andere Physiker, dass es eine Grundtheorie ohne Konstanten geben müsse. „Ich kann mir keine einheitliche und vernünftige Theorie vorstellen, die eine Zahl enthält, die die Schöpferlaune auch anders gewählt haben könnte … Eine Theorie, die in ihren Grundgleichungen ausdrücklich eine Konstante enthält, müsste irgendwie ein logisch unzusammenhängendes Stückwerk sein.“ Eine „Theorie für alles„, die keine Konstanten zu Grunde legt, müsste die heute bekannten Konstanten ohne eine einzige Messung rechnerisch erklären. Also alles – die Beschaffenheit der Kräfte, der Aufbau der Welt, das ganze Universum, sogar unsere Existenz – müsste sich aus reiner Mathematik ergeben.

Falls Einstein nicht recht hat, so wird es in der letztgültigen Theorie einen Rest von Unsicherheit geben: Konstanten, die nicht erklärt werden können, sondern die man messen (experimentell bestimmen) muss – und die mit gleichem Recht auch andere Werte haben können. Viele der heute bekannten Konstanten sind eigentlich gar nicht „selbständig„, sondern lassen sich auf logischem Wege aus anderen Konstanten errechnen. Die Anzahl der wirklichen Konstanten ist daher viel kleiner, als die ellenlangen Listen am Schluss physikalischer Lehrbücher vermuten lässt. Unser Standardmodell enthält 26 „selbständige“, also nicht ableitbare, numerische Parameter. Je weiter die Physik fortschreitet, desto mehr „selbständige“ Konstanten werden zu „abhängigen“ – einfach weil die Theorien immer weiter entwickelt werden. Und manchmal weist auch jemand nach, dass eine vermeintliche Konstante gar keine ist.

An drei fundamentalen und universellen Naturkonstanten, die man auch als physikalische Konstanten bezeichnet, hängen alle Größenverhältnisse im Universum ab. Durch Multiplikation und Division geeigneter Potenzen ihrer Werte lässt sich die Grundeinheit jeder physikalischen Größe – wie etwa Länge, Zeit, Energie oder Kraft – bestimmen. Von den Konstanten hängt ab, warum ein Atom so klein ist und eine Sonne so groß, und warum die Größe des Menschen genau dazwischen platziert ist.

  1. c – die Vakuum-Lichtgeschwindigkeit

Die Lichtgeschwindigkeit c (von lat. celeritas = Geschwindigkeit) stellt eine prinzipielle, nicht zu erreichende Obergrenze für die Geschwindigkeit von Körpern dar. Sie ist das fundamentale Bindeglied von Raum, Zeit, Materie und Energie. Von allen Naturkonstanten wurde keine so exakt bestimmt wie sie: 299 792 458 Meter pro Sekunde (m/s).

2. h – das Planck’sche Wirkungsquantum

Das Planck’sche Wirkungsquantum (benannt nach Max Planck) ist gleichsam das Herzstück der Quantentheorie, der universelle Quotient der Energie eines Strahlungsquants und der Frequenz dieser Strahlung. Seine metrische Dimension ist also die einer Wirkung. In der Praxis wird es gewöhnlich in der Form h mit Schrägstrich (hier: h/Strich) dargestellt, was darauf hinweist, dass Quanteneffekte im Spiel sind. Ihr Wert ist sehr klein: 6,62607015 x 10-34 Joulesekunden. Wäre die Planck-Konstante größer oder kleiner, wären die Auswirkungen auf die Natur gewaltig.

3. G – die Newton’sche Gravitationskonstante

G ist die universelle Konstante zur Berechnung der Gravitationskraft. Sie definiert auch die relative Stärke der Schwerkraft gegenüber den anderen Naturkräften (Wechselwirkungen). Messungen in aller Welt liefern teilweise widersprüchliche Ergebnisse. Während man z. B. die Ladung eines Elektrons (s. u.) auf 300 Millionstel genau kennt und die Messungenauigkeit bei der Feinstrukturkonstante (s. u.) bei 45 Milliardstel liegt, liegt sie bei der Gravitationskonstanten bei 128 Millionstel. Der derzeit gültige Wert beträgt 6,67430(50)x1011 m3 s-2 kg-1.

Die Planck-Skala

Planck-Einheiten markieren die Grenze, jenseits der die bekannten Naturgesetze nicht mehr anwendbar sind. Die Planck-Skala ist bei 1019 Gigaelektronenvolt (GeV) und 10-33 Zentimetern die ultimative Grenze, an der die Gravitation ähnlich stark ist wie der Elektromagnetismus und die anderen Kräfte, wo sich Raum und Zeit gleichsam in einem Quantenschaum aufzulösen beginnen, wo alle bekannten Naturgesetze versagen. Was hier geschieht, ist auf direktem Wege experimentell nicht zu erreichen und muss theoretisch erschlossen werden. Nur eine Theorie der Quantengravitation, also eine Vereinigung von Quantenmechanik und Allgemeiner Relativitätstheorie, nach der die Physiker händeringend suchen, wäre in der Lage, die Probleme zu lösen.

Bei rund 1019 GeV – der sog. Planck-Energie – konzentriert sich so viel Energie und damit Masse in einem winzigen Volumen, dass die Gravitation alle anderen Kräfte überwiegt. (Man vermutet, dass dabei ein Schwarzes Loch entsteht und wieder verdampft.) Mit der Planck-Energie hängt die fundamentale Längeneinheit, die Planck-Länge, zusammen. Sie ist mit ungefähr 1,6×10-35 Meter 20 Zehnerpotenzen kleiner als der Protonen-Radius und weit unterhalb dem Auflösungsvermögen der weltbesten Teilchenbeschleuniger. Man erhält sie durch passende Kombination der oben angeführten fundamentalen Naturkonstanten G, c und h/Strich. Dividiert man die Planck-Länge durch c, erhält man die fundamentale Zeiteinheit (Planck-Zeit), die sich in der Größenordnung von rund 5×10-44 Sekunden bewegt.

Weitere wichtige physikalische Konstanten sind die Ladung des Elektrons e (1,602 176 634 x 1019 Coulomb), welche die Stärke der elektromagnetischen Kräfte bestimmt, das Verhältnis von Protonen- zu Elektronenmasse (mp/me = 1836,152701) und die Feinstrukturkonstante Alpha (s. u.*). Insbesondere an den letzten beiden Zahlen, den Werten von Alpha und mp/me, hängt die schiere Existenz der gesamten Materie. Wäre eine dieser Zahlen nur geringfügig anders, könnte die Welt so nicht existieren.

*Die Feinstrukturkonstante Alpha setzt sich ihrerseits aus drei Naturkonstanten zusammen: Ladung des Elektrons (e), Planck’sche Konstante (h/Strich) und Lichtgeschwindigkeit (c). Sie tritt in den verschiedensten Bereichen der Physik auf, z. B. in komplizierten Gleichungen zur Beschreibung der Vorgänge bei der Entstehung der schwereren Atome im Inneren ausbrennender Sterne. Bei ruhenden Teilchen beträgt ihr Wert etwa 1/137, 036. Genaue Rechnungen zeigen: Wäre Alpha nur um 10% größer, würde fast kein Kohlenstoff mehr entstehen. Wäre Alpha um denselben Betrag kleiner, würden zwar riesige Mengen Kohlenstoff entstehen, dafür aber kein Sauerstoff und damit auch kein Wasser. Irdisches Leben wäre in beiden Fällen undenkbar.

Wechselwirkungen (Kräfte)

Auf den Werten der vier Kräfte beruhen die Eigenschaften, die einige Atomkerne haben müssen, damit wir Menschen existieren und dass wir auf Kohlenstoffchemie beruhende Körper besitzen, die Sauerstoff aus der Luft atmen. Sie sind verantwortlich für die Bindungen der Teilchen und zementieren damit die organisierten Strukturen der Materie. Sie verwandeln massereiche Materie in leuchtende Photonen, die Träger der Energie sind, welche für den Austausch und die Konstruktion noch komplexerer Systeme genutzt werden kann.

Die Konstante der „Starken Wechselwirkung“ beschreibt u. a., wie stark sich zwei Protonen im Atomkern gegenseitig anziehen. Sie hält die Kernteilchen damit entgegen der abstoßenden elektrischen Kraft zwischen den Protonen zusammen. Schon eine geringfügig schwächere Version der Starken Kernkraft hätte eine gänzlich andere Natur zur Folge. Es könnten sich keine schwereren Elemente als Wasserstoff bilden, also insbesondere auch kein Sauerstoff. Es gäbe somit auch kein Wasser und damit kein Leben der irdischen Art. Wäre die Starke Kernkraft nur um ein Weniges stärker, würde der Wasserstoff in den Sternen viel rascher zu schwereren Elementen verbrannt – die Sterne hätten eine zu kurze Lebensdauer, damit sich Leben entwickeln könnte.

Wäre die Elektromagnetische Kraft um 4% geringer, gäbe es weder Wasserstoff noch Sterne. Wäre die Schwache Wechselwirkung viel schwächer, gäbe es ebenfalls keinen Wasserstoff; wäre sie viel stärker, könnten Supernovae das interstellare Medium nicht mit schwereren Elementen anreichern. Wäre die Schwerkraft stärker, entstünden fast nur Blaue Riesen und die Sterne hätten ein zu kurze Lebensdauer. Wäre die Gravitation aber noch schwächer, als sie schon ist, hätten sich niemals Gaswolken zusammenballen können. In beiden Fällen würde das Leben, jedenfalls so, wie wir es kennen, nicht existieren.

Die Unterschiede in der Stärke der vier Wechselwirkungen sind ein Schlüssel für die Entwicklung des Universums und unserer Existenz. Neben den exakten Massen von Proton, Neutron und Elektron hängt das Verhalten aller Dinge im sichtbaren Universum vom Gleichgewicht zwischen den vier Kräften ab. Dass diese Konstanten so genau eingestellt sind, ist wirklich unglaublich. Und niemand weiß warum das so ist.

Albert Einstein führte 1917 die Kosmologische Konstante in die Allgemeine Relativitätstheorie ein, abgekürzt mit dem griechischen Buchstaben Lambda. Ihr Wert scheint überall der gleiche zu sein und sich über Raum und Zeit hinweg nicht zu ändern. Lambda kann als eine der grundlegenden (und messbaren) Naturkonstanten angesehen werden. Physikalisch lässt sich Lambda als Eigenschaft der Raumzeit interpretieren, oder – in der Teilchenphysik – als Energiedichte des Vakuums. Der Wert dieser Konstante ist gerade noch klein genug, um nicht die Bildung von Galaxien zu beeinträchtigen. Wäre er dagegen viel größer, wäre die Expansion des Universums so rapide, dass keine Sterne und Galaxien entstehen könnten.

Anthropisches Prinzip

Fundamentale Naturkonstanten haben also genau die Werte, die unserer Existenz zuträglich sind. Sie scheinen aufeinander abgestimmt zu sein und wirken, als seien sie passend gewählt, um Leben im Kosmos zu ermöglichen. Wären die Naturkonstanten anders beschaffen, würde z. B. die Kohlenstoffchemie, auf der alles Leben beruht, in dieser Form nicht existieren. Warum sie ihre bestimmten Werte haben, wissen wir nicht. Jeder Versuch, die exakten Werte zu erklären, ist bislang gescheitert – bis auf das so genannte „Anthropische Prinzip„.

In seiner schwachen Version besagt diese Hypothese lediglich, dass das Universum so beschaffen sein muss, damit unser Planet existieren und Leben, einschließlich des menschlichen Lebens, auf ihm gedeihen kann. An diesem Schluss ist nichts logisch unzulässig und nichts unwissenschaftlich. In einer stärkeren Version würde sich das anthropische Prinzip vermutlich auch auf die Dynamik der Elementarteilchen und den Anfangszustand des Universums erstrecken. Demnach wäre das Weltall also so gestaltet, dass darin zwangsläufig intelligente Beobachter entstehen.

Auch Stephen Hawking argumentierte, dass wir die Welt so beobachten, wie sie ist, weil wir in anderen Welten gar nicht leben können. Daher seien etwa die Gleichförmigkeit und ungekrümmte Geometrie des beobachtbaren Weltraums keineswegs erstaunlich, obwohl sie zunächst äußerst unwahrscheinlich anmuten. Die fundamentalen Naturkonstanten müssen einfach genau die Werte haben, die mit unserer Existenz vereinbar sind. Es geht gar nicht anders, denn wenn die Bedingungen im Weltall nicht genau zur Evolution des Lebens und des Menschen passen würden, gäbe es niemanden, die die Frage nach dem „Warum“ stellen könnte.

Viele Physiker beschleichen mittlerweile Zweifel, ob die Naturkonstanten wirklich fixe Größen sind und tatsächlich immer denselben Wert besitzen. Unser physikalisches Wissen reicht nicht aus, um zu sagen, ob sie in unterschiedlichen Regionen des Universums nicht unterschiedliche Werte annehmen können. Darunter könnte man Gebiete verstehen, die, bedingt durch kurze Phasen der Inflation, verschieden schnell expandiert sind, so dass die sog. „Konstanten“ dort andere Werte angenommen haben. Die fundamentalen Gesetze würden demnach nur beschreiben, wie sich die Werte der Naturkonstanten auf die verschiedenen Teile des Universums verteilen. Dem Leben käme keine Sonderrolle zu; es wäre dann kaum erstaunlich, dass in einigen Teilen des Universums – wohl auch nur in sehr wenigen – Leben möglich ist.

Auch die Möglichkeit, dass sich die Naturgesetze entwickeln, ist nicht ausgeschlossen. So könnten sie einer zeitlichen Entwicklung unterworfen oder über längere Zeiträume hinweg variabel sein. Manche Physiker spekulieren, dass z. B. die Gravitationskonstante vielleicht doch keine Naturkonstante ist, sondern sich aus einer tieferen Theorie ergibt, die wir noch nicht kennen. Sie mutmaßen, dass die Stärke der Gravitation sich während der kosmischen Entwicklung verändert hat. Würde man tatsächlich Abweichungen finden, könnte das ein erster Hinweis darauf sein, dass die Dunkle Energie mehr als eine physikalische Fiktion ist.

Einige Astronomen behaupten, sie hätten bereits Variationen von Naturkonstanten gefunden. Doch den meisten Forschern erscheint die Beweislage zweifelhaft. Es konnte jedenfalls gezeigt werden, dass sich das Massenverhältnis zwischen Proton und Elektron (mp/me) – das Rückschlüsse auf die Starke Kraft zulässt – zumindest in den vergangenen sieben Milliarden Jahre nicht nachweisbar geändert hat. Aber auch bei der Gravitationskonstante fand man bisher keine Veränderung. Eine endgültige Lösung des Problems werden wir allerdings erst finden, wenn wir mehr über die Quantentheorie der Gravitation wissen.

Ganz allgemein passen veränderliche Naturkonstanten zu den sogenannten String-Theorien, die nach Meinung vieler theoretischer Physiker die bislang besten Aspiranten auf eine Theorie der Quantengravitation sind. Sie erlauben Naturkonstanten, die sich mit der Zeit verändern. Die Größe dieser Drift ist allerdings unklar. In seinem Buch „Im Universum der Zeit“ greift auch der Theoretiker Lee Smolin die gängige Vorstellung von der „Konstanz der Konstanten“ an. Er skizziert hier die Grundzüge einer fundamentalen Theorie jenseits der Quantenmechanik, in der Naturgesetze veränderlich sind.

Multiversum

Der unwahrscheinlich kleine Wert der Kosmologischen Konstante und die unwahrscheinliche Feinabstimmung der Naturkräfte, die gerade passende Werte für die Entstehung von Leben haben, könnte auch damit erklärt werden, dass wir in einem Multiversum leben. Nach dieser Theorie wurde durch einen Urknall nicht nur der uns bekannte Kosmos erzeugt, sondern eine sehr große Anzahl weiterer, uns unzugänglicher Universen (Paralleluniversen). Wahrend der klassische Urknall einen irgendwie gearteten Schöpfungsakt braucht, kann ein Kosmos in der Theorie der Multiversen sogar ewig bestehen, so dass immer wieder neue Universen mit unterschiedlichen Naturgesetzen entstehen (Eltern- und Babyuniversen) und sich entwickeln.

Die Werte der Naturkonstanten in unserem Universum wären demnach das Resultat von Zufallsprozessen bei seiner Entstehung, während unzählige andere Universen mit anderen Werten für die Konstanten existieren, in denen Leben nicht möglich ist. Wir erblicken also nur deshalb ein Bündel fein abgestimmter, „lebensfreundlicher“ Konstanten, weil wir nur in einem lebensfreundlichen Universum entstehen konnten. Vielleicht werden alle physikalischen Bedingungen, die überhaupt möglich sind, irgendwo realisiert. In fast allen diesen Universen erlauben die physikalischen Gesetze wahrscheinlich weder die Bildung von Materie in unserem Sinn noch von Galaxien, Sternen, Planeten und Leben. Dass in dieser Fülle von Universen aber auch ein lebensfreundlicher Kosmos entsteht, in dem die physikalischen Konstanten durch Zufall derart fein aufeinander abgestimmt sind, dass Leben einschließlich des Menschen existieren kann, wäre dann gar nicht mehr so erstaunlich.

Eine Analogie für unsere Situation bietet das Beispiel der Quantenfische: Zunächst fixiert auf den eigenen Teich, der sehr genau die Eigenschaften aufweist, die ihre eigene Existenz möglich machen, beginnen sie zunehmend über ihren Teich hinauszudenken. Im Lauf ihrer Nachforschungen erreichen sie eine hinreichend umfassende Perspektive, aus der sie erkennen, dass vor ihnen ein Land voller Teiche liegt: ein Multiversum von Fischteichen. Von dieser Warte aus wundert es sie nicht länger, dass die Bedingungen im eigenen Teich gerade so passend für Leben sind – wären sie es nicht, so hätten sich die Quantenfische in einem anderen Teich wiedergefunden.

Wie fein die Naturkonstanten aufeinander abgestimmt sein müssen, um Leben – vor allem intelligentes Leben – möglich zu machen, ist nicht unumstritten. Der Physiker und Astronom Steven Weinberg z. B. ist von solchen Feinabstimmungen nicht beeindruckt. Dafür gebe es andere Erklärungen. Außerdem seien manche Werte – beispielsweise der Energiezustand des Kohlenstoffs – gar nicht mal so fein abgestimmt. Tatsächlich wurden inzwischen Beispiele für alternative Werte der Konstanten und damit für abgewandelte physikalische Gesetze gefunden, die zu sehr interessanten Welten mit Sternen und damit sogar zu Leben führen könnten. Es sollten demnach also noch andere Universen existieren, die komplexe Strukturen und vielleicht sogar exotische Organismen enthalten.

Die Aussicht, dass es eine Unmenge von Universen geben kann, ist in den physikalischen Theorien jedenfalls unumstritten. So beschreibt z. B. jede Lösung der Feldgleichungen der Allgemeinen Relativitätstheorie bereits ein eigenes kosmologisches Modell. Im Rahmen der Stringtheorie sind unzählige Raumzeitgeometrien denkbar, was Verfechter der Theorie als Indiz für das Multiversum deuten. Es gibt vielleicht 10500 Lösungen der Gleichungen, die jede als eigenes Universum interpretiert werden können, mit eigenen Naturkonstanten und – gesetzen. Die Eigenschaften in diesen Welten hängen vom Quantenvakuum ab, gewissermaßen ihrem physikalischen Urzustand. Leonard Susskind, einer der Begründer der String-Theorie, nennt dieses gigantische Multiversum „Stringlandschaft„. Er sieht kein schlüssiges Argument, das dagegen spricht. Auch eine andere Quantengravitations-Theorie, die Schleifen-Gravitation, legt die Existenz anderer Universen nahe und kann zumindest entsprechende kosmologische Modelle erklären. Aber welche dieser Modelle sind physikalisch Realität?

Gegenargumente

Alles in allem sind manchen Forschern die Argumente für das Multiversum nicht überzeugend. Sie halten das anthropische Prinzip für absolut unwissenschaftlich und kritisieren die extreme Schwammigkeit der Idee: Es handele sich eher um ein vages Konzept als um eine definierte Theorie. Das Multiversum sei verschwenderisch (unökonomisch) und extravagant. Die Theorie biete viel zu großzügig Universen für alle Gelegenheiten feil, als dass sie ernsthaft als Lösung genommen werden könnte. Vor allem stört die Skeptiker die ungeheure Menge an Information, die zur Beschreibung all dieser ungesehenen Welten nötig ist.

Dagegen wird eingewendet, dass das Übermaß an Komplexität nur in der subjektiven Wahrnehmung der Beobachter steckt. Die Menge aller Lösungen sei aber einfacher als eine spezielle. Und wenn schon eine Frage nach dem Wesen der Realität gestellt würde, müssten wir wohl mit einer Antwort rechnen, die seltsam anmutet; schließlich habe die Evolution nur mit einer Intuition für Alltagsphysik zum Überleben in unserer Umwelt geführt.

Das Konzept des Multiversums erscheint aber nicht nur spekulativ, es scheint auch schlicht unüberprüfbar und wird unserer bewährten wissenschaftlichen Methode vielleicht niemals zugänglich sein. Sämtliche Paralleluniversen liegen jenseits unseres Horizonts, d. h. sie sind kausal von uns getrennt. Ihr Licht schafft es während der Lebenszeit unseres Weltalls nicht, zu uns zu gelangen. Daher können wir nicht einmal im Prinzip nachprüfen, ob diese Welten wirklich existieren. Gibt es sie tatsächlich, werden sie mit noch so raffinierter Technik für immer für die Menschen unsichtbar bleiben.

Die Hypothese des Multiversums kann aber viele Probleme des Standard-Urknallmodells lösen. Einige Aspekte unseres Universums können nur durch die „Multiversalität“ begründet werden. Es ist beispielsweise die einzige Theorie, die wirklich ein konsistentes und kohärentes Bild vermittelt, wie man mit dem Problem des höchst unwahrscheinlichen Anfangszustands fertig werden kann.

Kosmologen, die die Stringtheorien vertreten, folgern, dass einige Paralleluniversen eventuell doch mit unserem Universum in Wechselwirkung treten und wir entsprechende Effekte nachweisen könnten. Theoretisch müsste es sogar nach der Allgemeinen Relativitätstheorie Verbindungen zwischen den Universen geben: Durch ein Wurmloch, einen „Tunnel“ der Raumzeit, könnte ein „Baby-Universum“ mit seinem „Eltern-Universum“ verbunden sein. Auch nach sogenannten Fluktuationsmodellen könnten neue Universen Spuren ihrer kosmischen Vergangenheit in sich tragen und sogar quantenmechanisch miteinander verschränkt sein. All das ist allerdings reine Spekulation.

Fazit

Die neuen kosmologischen Ansätze zeugen von hoher mathematischer Kreativität. Die Vorstellung eines Multiversums wirft jedoch schwierige philosophische Fragen auf: Gehört sie überhaupt in den Bereich der empirischen Wissenschaft oder ehr in die höheren Sphären der Metaphysik? Dass mathematische Abstraktionen nicht immer der Realität entsprechen, lehrt uns schon der alte Mathematiker-Witz: Der Mathematik-Professor verlässt den Hörsaal, in dem sich zwei Studenten befinden. Wenig später kommen drei Studenten aus dem Saal heraus. Ein paar Minuten später geht einer hinein. Darauf der Professor: „Gott sei Dank, jetzt ist der Raum wieder leer und ich kann schließen.“ – Parallelwelten, bizarre Universen und Lehrsäle. die sich leeren, indem man sie betritt, scheinen eine große Gemeinsamkeit zu haben: Niemand hat sie je beobachtet!

Vielen theoretischen Physikern ist das Multiversum eigentlich ganz egal: Sie betrachten es nur als theoretischen Rahmen, während seine Entstehung in keiner Weise interessiert. Für die Kosmologen dagegen bildet der kosmische Horizont das Grundproblem jeder Art von Multiversum. Eine nichtphysikalische Antwort auf all die Fragen und Probleme kann man in den „Bekenntnissen“ des Augustinus finden, der auf die Frage: „Was tat Gott, bevor er die Welt erschaffen hat?“ antworten ließ: „Da hat er die Hölle eingerichtet für Leute, die solche Fragen stellen.“

REM

Die neolithische Zeitenwende

Seit seiner Entwicklung vor rund 300 000 Jahren hatte Homo sapiens vom Sammeln, später dann auch vom Jagen gelebt – und war dadurch hervorragend an seine Umwelt angepasst. Am Ende der letzten Eiszeit ergab sich aber die Notwendigkeit, seine Lebensweise prinzipiell umzustellen. Es war insgesamt wohl der elementarste Übergang in der Menschheitsgeschichte, weil sich in vielen Lebensbereichen einfach alles änderte: Der Mensch wurde sesshaft, formte Ton zu Gefäßen und ließ diese trocknen, später brannte er sie auch, baute Kulturpflanzen an und züchtete sie und domestizierte Tiere.

Die Epoche dieses Umbruches bezeichnet man als „neolithische Revolution„, in Anlehnung an den Begriff der „industriellen Revolution“ des 18. und 19. Jahrhunderts. Allerdings erfolgte der wirtschaftliche und gesellschaftliche Wandel keineswegs abrupt, sondern während einer Tausende Jahre dauernden Übergangszeit in vielen regional unterschiedlichen Schritten und zu verschiedenen Zeiten. Daher sprechen die Wissenschaftler trotz der tiefgreifenden Veränderungen und der weitreichenden kulturhistorischen Bedeutung heute nicht mehr gerne von „neolithischer Revolution„, sondern lieber von Neolithisierung.

Die meisten Experten gehen heute von einem Ursachengeflecht aus, das die Neolithisierung hervorbrachte: Klimaumschwung, Überjagung, Überbevölkerung und anderes. Ob eine steinzeitliche Kultur bereits als neolithisch (jungsteinzeitlich) anzusehen ist, hängt letztendlich von den Kriterien der Archäologen ab. Während einige Experten schon das Aufkommen gebrannter Keramik als ausreichendes Indiz ansehen, verlangen andere den Nachweis der Sesshaftigkeit sowie einer produzierenden statt einer aneignenden Wirtschaftsweise einschließlich einer Vorratswirtschaft.

Anfänge

Gut möglich, dass Menschen schon vor mehr als 100 000 Jahren stärkehaltige Samen von Wildgetreide gegessen haben, z. B. als Kalorienquelle, wenn weniger Wildtiere umherstreiften oder schwer zu erlegen waren. Nachweise von Stärkepartikeln auf Mahlwerkzeugen und Mörsern in mindestens 40 000 Jahre alten Schichten im heutigen Israel sprechen auch schon für eine lokal und zeitlich begrenzte intensive Nutzung von Gräsern. Systematisch wurde Wildgetreide jedenfalls schon vor 23 000 Jahren am Ufer des Sees Genezareth (Fundplatz Ohalo II) genutzt, wo es wohl ein reiches Vorkommen gab. In Regionen, wo ein günstiges Klima herrschte, das Gräser reichlich wachsen ließ und eine reiche Tierwelt aufwies, blieben altsteinzeitliche Nomaden wahrscheinlich saisonal am Ort und jagten und ernteten, ohne gesät zu haben.

Ab 15 500 v. h. wandelte sich das Klima. Es wurde rasch wärmer und im Nahen Osten breiteten sich Wälder und Grassteppen aus. In den reichen Biotopen im Norden Mesopotamiens gab es weitläufige Wildgetreidevorkommen und zahlreiche Tierarten – für die Jäger und Sammler ein Überangebot an Jagd- und Sammelbarem, so dass die Menschen sich dort länger aufhielten. Ein Umherziehen war schlicht nicht mehr notwendig, die altsteinzeitlichen Nomaden blieben saisonal vor Ort und ernteten, ohne gesät zu haben. Im 14. Jahrtausend v. h. entstanden an den Ufern des Euphrat und Tigris und deren Zuflüssen erste vorläufige dörfliche Siedlungen, in denen eine frühe Landwirtschaft betrieben wurde.

Vor 12 800 Jahren kappten Schmelzwasser des abtauenden nordamerikanischen Eisschilds den Golfstrom für mehr als tausend Jahre. In Europa und im Nahen Osten herrschten wieder fast eiszeitliche Verhältnisse (Jüngere Dryas). Im Gebiet des „Fruchtbaren Halbmonds“ – einem sichelförmigen Gebiet zwischen dem Südosten der Türker, Nordsyrien und dem Nordwesten des Irak – brachte der nacheiszeitliche Klimawandel zunehmende Trockenheit und Versteppung. Die nichtsesshaften Sammler und Jäger trafen diese Veränderungen nicht so hart, sie mussten lediglich ihre Jagdpraktiken umstellen. Sie folgten jetzt einfach den Herden der Beutetiere, die von Wasserstelle zu Wasserstelle wanderten.

Andere Gruppen blieben vor Ort. Die Not motivierte sie, jene Wildgräser anzubauen, die sie vorher in großer Menge ernten konnten. Vermutlich hegten und pflegten sie die Pflanzen bereits und schützten sie vor gefräßigen Herdentieren. Anfangs dienten die Grasfrüchte nur als Zubrot. Sie benutzten auch noch keine Tongefäße, um Nahrung aufzubewahren und zuzubereiten.

Sesshaftigkeit

Schließlich stabilisierte sich der Golfstrom wieder und es wurde wärmer. Die günstigen Klima-und Umweltbedingungen und es wurde wärmer. Die günstigen Klima-und Umweltbedingungen im nördlichen Bogen des Fruchtbaren Halbmonds (genug Wasser, Übermaß an Pflanzen und Tieren) waren ein Paradies für die Jäger-und-Sammler-Gruppen und machten einen saturierten Lebenswandel möglich. Dabei wurden Samen von Wildgras als Brei konsumiert, aber auch in vergorener Form als gelegentliches Genussmittel, als Bier. Ihren Fleischbedarf deckten die Menschen hier zunächst noch durch die Jagd auf Gazellen, später hauptsächlich durch Schafe, Ziegen und Rotwild. Einige Forscher mögen nicht ausschließen, dass man sich schon in einer Periode direkt vor der Domestikation befand, in der selektiv gejagt wurde – eine Vorstufe der Herdenhaltung.

Die Menschen lebten zwar offensichtlich noch von der Hand in den Mund. Sie konnten noch nicht töpfern – gebranntes Tongeschirr war im Fruchtbaren Halbmond daher zunächst unbekannt (kam hier erst 9000 v. h. auf). Zwar kannte man Ton – ohne ihn allerdings zu brennen: Aus Lehmziegeln wurden Häuser gebaut und Vorratsgruben oder Körbe mit Ton ausgekleidet.

Schon vor 27 000 Jahren wurde – ob durch Zufall oder gezielte Experimente – feuchter Ton zu einer Form geknetet (anfangs vor allem zu Figuren) und ins Feuer gelegt. Die Idee, aus Ton Gefäße zu brennen, kam erst später unter mobilen Wildbeutern auf. Ostasien scheint ein frühes Zentrum der Töpferei gewesen zu sein. Es gibt 20 000 bis 16 000 Jahre alte Funde aus der chinesischen Provinz Hunan, vom Gebiet des Amur-Flusses und aus Japan (Jomon-Kultur). Auf dem heute zur Sahel-Zone gehörenden Dogon-Plateau wurde die Keramik vor 12 500 bis 11 500 Jahren erfunden und breitete sich bis ins Niltal aus.

Im nördlichen Bogen des Fruchtbaren Halbmonds (Fundstellen in Körtik Tepe, Göbekli Tepe, Nevali Cori, Tell Abu Hureya u. a.) errichteten die Steinzeitler schon mächtige Rundanlagen. Am bekanntesten sind die Megalithbauten vom Göbekli Tepe, einem Bergkamm in der Südosttürkei. Die dort vor 11 600 Jahren geschaffene Kultanlage gilt als ältester „Tempel“ der Welt und wurde vor allem wegen ihrer riesigen T-Pfeiler berühmt. Diese Monolithe, die auch an anderen Fundorten in der Gegend auftauchten, sind teils übersät mit Reliefs wilder Tiere. Sicher ist: Mit ihren Armen stellten die T-Pfeiler menschenförmige Gestalten dar, genau genommen Männer, umgeben von einer wilden, männlich dominierten Tierwelt. Möglicherweise handelt es bei ihnen um die frühesten Götterbilder in der Menschheitsgeschichte.

Der handwerkliche wie geistige Aufwand für die Anlage eines solchen zentralen Ortes setzt eine bereits sozial gegliederte Gesellschaft mit ausgeprägter Religiosität voraus, die zu solch aufwändigen Gemeinschaftsaktionen bereit war – vermutlich angeführt von einem religiösem Oberhaupt. Die Jäger-und-Sammler-Ethnien hatten also wohl bereits ausgefeilte und tradierte Kulte und feierten rund um die Tempelanlagen ihre Feste, bei denen es vermutlich neben Getreidegerichten auch viel Fleisch zu essen gab. Aus Gräsersamen gebrautes Bier könnte Teil der Rituale gewesen sein, die mutmaßlich der sozialen Integration und Festigung der Gemeinschaft dienten.

Die Menschen im gesamten Norden Mesopotamiens scheinen durch ähnliche Riten und Symbole verbunden gewesen zu sein. Mit der Zeit nahmen sie ihre Jagdwaffen immer seltener in die Hand, bauten Pflanzen an und begannen, ihre Fleischlieferanten nicht länger unkontrolliert umherlaufen zu lassen. Noch aber gilt diese Kulturphase im Bergland Nordmesopotamiens nicht als Jungsteinzeit, da sie nur Sesshaftigkeit vorzuweisen hat, nicht aber geregelten Ackerbau, Viehzucht und Töpferei.

Übergang

Sesshaftigkeit gilt als Voraussetzung für die Entdeckung, dass Wildgetreidevorkommen nachwachsen, wenn Körner zufällig in den umliegenden Boden gelangen. Von der Beobachtung des Auskeimens bis zum gezielten Sammeln und Aussäen der Samenkörner an einem geeigneten Ort war es dann nur noch ein kleiner Schritt. Einige Forscher glauben, dass nicht der Hunger die Menschen dazu brachte, Getreide anzubauen, sondern das Bedürfnis nach kollektiven Rauschzuständen. Bier war relativ leicht aus Getreidekörnern herzustellen und sei wegen seiner berauschenden Wirkung ideal für entsprechende rituelle und spirituelle Zwecke gewesen.

Die Spelzen mussten zur Bierherstellung nicht umständlich von den Körnern entfernt werden. Hefepilze sind unter den in mittleren geografischen Breiten herrschenden Witterungsverhältnissen nahezu allgegenwärtig. Es genügte also, eine geringe Menge Körner zu zerstampfen und reichlich Wasser und etwas Speichel hinzuzufügen – und die alkoholische Gärung entstand von selbst. Das primitive Bier (mit allenfalls 1 bis 2% Alkoholgehalt) war zwar trübe und leicht verderblich, aber es schmeckte angenehm süß und war noch dazu ziemlich nahrhaft – und bekömmlicher als Wasser.

In der Höhle Rakefet (Raqefet) südlich von Haifa wurde wohl schon vor 13 000 Jahren ein bierähnliches Getränk als Teil eines Begräbniskults konsumiert. Offenbar war auch in China bereits kurz nach dem Ende der Eiszeit die Kunst des Bierbrauens als Teil eines Totenkultes weit verbreitet. Das schloss man aus Körnern aus Reis und anderen stärkehaltigen Pflanzen, die man zusammen mit Spuren von Hefen und Schimmelpilzen in Gefäßen aus der Shangshan-Kultur in Südchina (etwa 11 400 bis 8600 v. h.) entdeckte hatte.

Gerade im Fruchtbaren Halbmond (wegen des Verlaufs seiner Gebirgszüge und seiner einst reichen Landwirtschaft so genannt) trafen in einmaliger Weise Pflanzen und Tiere zusammen, die sich zur Domestikation eigneten. So kommen von den 56 großsamigen Pflanzenarten auf der Welt 32 im Fruchtbaren Halbmond vor, aber nur 6 in Ostasien und 4 im Afrika südlich der Sahara. Außerdem lebten hier die wilden Vorfahren der heutigen Haus- und Nutztiere Ziege, Schaf, Schwein und Rind. Nirgendwo sonst konnten so viele Wildpflanzen und Wildtiere unter so günstigen klimatischen und geografischen Bedingungen und in so großem Raum domestiziert werden wie in dieser Weltregion.

Nicht alle Wildtiere lassen sich züchten. Vermutlich haben es die Menschen auch mit Gazellen versucht, die reichlich gejagt und verspeist wurden. Doch diese haben ein komplexes Territorialverhalten und ein Fortpflanzungsritual, das hinter Gittern nicht so ohne Weiteres funktioniert. Besonders gut als Haustiere eignen sich dagegen Herdentiere, die weniger aggressiv sind und ein schwaches Alarmsystem haben und bei denen der Mensch die Rolle des Leittiers übernehmen konnte.

In dem klimabegünstigten Gebiet des Fruchtbaren Halbmonds bauten also erstmals um 11 500 v. h. Steinzeit-Menschen ihre Nahrungspflanzen an – zunächst nur sporadisch. Die Domestikation ereignete sich dabei eher zufällig: Die Menschen wählten im Laufe der Zeit immer mehr Pflanzen aus, die stabilere Ähren aufwiesen, da sie leichter geerntet werden konnten. Schließlich überwogen diese in den Erntegefäßen, was den Ernteertrag verbesserte.

Ursache dafür, dass die reifen Samen in der Hülle gefangen bleiben (fest am Stängel) und nicht keimen, ist ein Gendefekt, der wahrscheinlich in den 100 000 Jahren vorher schon unzählige Male aufgetreten war, den die Natur aber immer wieder ausgemerzt hatte.

Heute geht man davon aus, dass der Prozess des Pflanzenanbaus unabhängig voneinander in verschiedenen Teilen des im Winter niederschlagsreichen Fruchtbaren Halbmond gleichzeitig ablief. Freilich ist nicht ausgeschlossen, dass am Übergang zur sesshaften Lebensweise ein wechselseitiger Kulturtransfer zwischen verschiedenen Regionen stattgefunden hat.

Landwirtschaft

Die rasche Erschöpfung der Böden erforderte örtlich noch lange Zeit ein Halbnomadentum, aber zumindest zwischen Aussaat und Ernte musste man am Ort bleiben. Bereits 11 600 v. h. lebten etwa in Jericho Bauern in Häusern aus Stein, Holz und Lehm und lagerten dort Getreide als Vorrat und Saatgut. (Möglicherweise dienten die Häuser anfangs nur als Orte zum Schlafen und Arbeiten.) Die Menschen hatten das Jagen und Sammeln also noch nicht gänzlich aufgegeben, allerdings verbrachten sie immer weniger Zeit damit und verlegten sich mehr darauf, Tiere zu halten und Pflanzen zu kultivieren.

Die Gerste ist die älteste nachgewiesene Kulturpflanze; ihre Spur reicht sogar 15 000 Jahre zurück. Um 11 600 v. h. kultivierten Menschen aus der Kreuzung mehrerer Wildgräser die ersten Weizenarten Emmer und Einkorn. Im Laufe der Jahrtausende wurden sie zum Kulturweizen veredelt (früheste Nachweise 9800 v. h.). In Asien vollzogen sich vergleichbare Entwicklungsschritte ab etwa 10 000 v. h. mit den Graspflanzen Reis und Hirse, in Amerika später mit Mais. Um 11 000 v. h. domestizierten Siedler im Nahen Osten acht Pflanzen: Emmer, Einkorn und Gerste; die Hülsenfrüchte Erbse, Linse, Kichererbse und Linsenwicke sowie Flachs, aus dessen Leinsamen sie fettreiches Öl pressten und dessen Fasern sie zu Stoff verarbeiteten.

Wildgetreidefelder und später die Getreidekulturen lockten Wildschafe und Wildziegen an. Das brachte beide in stärkeren Kontakt zum Menschen. Vor etwa 11 000 Jahren lernten teil-sesshafte Stämme, wahrscheinlich im nördlichen Zweistromland, diese Tiere als Fleischlieferanten zu halten und zu zähmen. Von den ersten gefangenen Tieren bis zu den echten Haustieren war es aber noch ein langer Weg.

Die frühesten handfesten Belege für Haustiere fand man im südostanatolischen Nevali Cori im Euphrat-Tal. Gazellen blieben aber zunächst noch Haupt-Fleischlieferanten, doch ab etwa 10 500 Jahren v. h. machen die Knochen der Wiederkäuer an den Fundorten schon 65 bis 75% der tierischen Überreste aus. Erst zwischen 10 000 und 9000 v. h. waren Schafe und Ziegen schließlich als Haupt-Fleischversorger etabliert. Gleichzeitig könnten auch erste Versuche der Haltung und Zucht von Rindern geglückt sein.

Ein geregelter Ackerbau mit Aussaat, Ernte, Vorratshaltung und Züchtung verbreitete sich auf dem Gebiet des Fruchtbaren Halbmonds immer weiter, während die verbliebenen Jäger und Sammler in Rückzugsgebiete abgedrängt wurden. Mehr und mehr machten sie sich unabhängig von den Naturmächten und begannen, die natürliche Umgebung nach ihren Interessen umzuformen. Die schwindende Angst vor den Urgewalten machte ihre Köpfe frei für neue Ideen, die den Ertrag und die Nutzungsdauer ihrer neu entdeckten Feldwirtschaft vergrößerten. In klimatisch begünstigten Zonen konnte die Nahrungsmittelproduktion erheblich intensiviert und die Ernährungsbasis um ein Vielfaches erhöht werden. Spätestens jetzt hatten die Menschen die Stufe der bloßen Bedürfnisbefriedigung hinter sich gelassen.

Auswirkung auf den Menschen

Die „Erfindung“ der Landwirtschaft ging aber auch mit gewaltigen Veränderungen für die Lebensbedingungen der Menschen einher. Als Wildbeuter hatten sie noch wesentlich mehr „Freizeit“ genossen; die individuelle Freiheit war ein hochgeschätztes Gut. Als Bauern mussten die ehemaligen Jäger und Sammler jetzt Wochen und Monate harter Arbeit in die Bearbeitung des Bodens, das Aussäen, Ernten und Lagern der Früchte sowie die Verarbeitung der Nahrung stecken. Zudem musste das Vieh unablässig betreut und versorgt werden.

Die mühevolle Arbeit hinterließ tiefreichende Auswirkungen auf die Menschen: Die ersten Ackerbauern waren kleiner und schwächlicher als ihre eiszeitlichen Jäger-und-Sammler-Ahnen und häufig bei schlechter Gesundheit. Das dürfte zum einen an einer viel zu einseitigen, getreidereichen (proteinärmeren) Ernährung gelegen haben, wodurch sie häufig an Mangelerscheinungen wie Skorbut und Blutarmut litten. Dazu wurden sie infolge der täglichen harten Arbeit von Arthrose und Entzündungen geplagt.

Etwa gleichzeitig mit den Anfängen der Domestikation von landwirtschaftlich genutzten Tieren begann bereits vor 10 500 Jahren die Milchgewinnung im Nahen Osten. Während die Milch für die Erwachsenen zu Käse und Joghurt verarbeitet wurde, um sie verträglich zu machen, konnten Kleinkinder damit gefüttert werden. Doch so fehlten ihnen wichtige Nähr- und Abwehrstoffe, die in der Muttermilch waren. Vermutlich stieg infolgedessen die Kindersterblichkeit.

Ratten, Mäuse und Spatzen schleppten gefährliche Keime ein. Das Vieh wurde oft als Zwischenwirt von Erregern genutzt, welche sich nach und nach auf den Homo sapiens spezialisierten und sich in den größeren Gemeinschaften schnell ausbreiteten. So stammen z. B. die Erreger von Masern, Pocken und Tuberkulose von Rindern, die von Grippe und Keuchhusten von Schweinen. Neben der Nutztierhaltung, der einseitigen Ernährung und der steigenden Bevölkerungsdichte begünstigte auch mangelnde Hygiene den Aufstieg von Erregern. Die sesshaften Bauern lebten gleichsam inmitten ihrer Fäkalien, so dass gefährliche Darmkeime ins Trinkwasser gelangten.

Samen in die Erde geben und voller Vertrauen darauf warten, dass Licht und Regen ihm helfen zu wachsen und rechtzeitig Früchte zu tragen, das bedeutete für Menschen, deren Vorfahren auf die Jagd gegangen waren, ein neues Denken, Handeln und Planen. Es gab genügend Lebensressourcen und Ideenkraft, um auch neugierig hinter das banal Alltägliche zu schauen. So veränderte sich möglicherweise auch die religiöse Welt. Die Riten der Jäger und Sammler und ihre Zentralorte mit den Steinplastiken und Tierdarstellungen wurden komplett bedeutungslos. Neue Heiligtümer, zwischen 10 600 und etwa 10 000 v. h. errichtet, gerieten schon weniger beeindruckend. Möglicherweise schufen sich die Menschen jetzt mit der Ahnenverehrung einen Weg ins nicht diesseitige Leben.

Megasites

Mit immer weniger Fläche konnten jetzt immer mehr Menschen ernährt werden. Es entstanden immer größere Dörfer mit massiven Bauten für Mensch und Vieh und ihre Vorräte. So wuchsen im Laufe des 10. Jahrtausends manche Orte zwischen Amman und dem Roten Meer innerhalb weniger Jahrhunderte auf bis zu 15 Hektar mit mehreren tausend Einwohnern (sogenannte Megasites). In Zentralanatolien entstand vor etwa 9100 Jahren die Großsiedlung Catal Höyük, für manche Forscher die älteste Stadt der Welt.

Ernteüberschüsse und Handwerksprodukte wurden zu Handelswaren: Die Megasites entwickelten sich zu Handelsplätzen. Schließlich griffen die bisherigen sozialen Verhaltensregeln nicht mehr. Das traditionelle offene soziale Netz brach zusammen und wurde vermutlich durch engere verwandtschaftliche Bande ersetzt. Verstärkte Arbeitsteilung und Anhäufung von Besitz generierten Unterschiede, was zu weiterer sozialer Differenzierung und Hierarchisierung in der Gesellschaft beitrug. Macht wurde nun über Besitz zur Schau gestellt. Die Archäologin Barbara Bender postulierte, machthungrige Männer hätten Überschüsse an Getreide gebraucht, um Feste zu geben und dadurch ihren Einfluss zu mehren.

Verursacht durch die Bevölkerungsexplosion und rasch verarmenden Böden – von Düngung verstand man noch nichts – wurden gute Böden knapp, dasselbe galt auch für Holz. Konkurrenzkämpfe um die besten Holzreserven und die besten Ackerböden müssen innerhalb und zwischen den Megasites zu enormen sozialen Spannungen geführt haben. Viele Anthropologen halten die bäuerliche Sesshaftigkeit sogar für die Wiege aller Konflikte um Land und Lebensgrundlage, denn: Anders als Wildbeuter hatten Weizenzüchter und Viehhalter keine Ausweichmöglichkeit mehr, wenn Fremde ihre Ressourcen beanspruchten.

Innerhalb der Megasites versuchten die Menschen aufflammende Konflikte durch neue Regeln des Zusammenlebens zu kontrollieren. Rituale dienten dazu, das Gefühl einer gemeinsamen Identität zu stärken. Auf die Dauer aber half es nichts: Die ersten Bauern scheiterten schließlich an der Übernutzung der Ressourcen und den inneren Konflikten ihrer Gemeinschaften, wobei klimatische Veränderungen die Lage noch verschärft haben dürften. Die meisten Megasites wurden spätestens im Laufe des 9. Jahrtausends v. h. aufgegeben, die wenigen Ausnahmen schrumpften zu kleinen Dörfern zusammen. Wohin die Menschen gingen, bleibt im Dunkeln.

Megasites waren ein frühes Experimentierfeld für präurbanes Leben. Es sollte zwar Jahrtausende dauern, bis das Experiment, so viele Menschen in einem Ort leben zu lassen, wiederholt wurde. Der Grundstein für ein Zusammenleben in großen Gemeinschaften war jedoch in den neolithischen Megasites gelegt, vor allem durch die sozialen Regeln, denen sich die Menschen verschrieben hatten.

Verbreitung

Ausgelaugte Böden und zunehmende gewaltsame Auseinandersetzungen waren wahrscheinlich die Ursachen dafür, dass sich einige Bauern vor mehr als 10 000 Jahren entschlossen, die heimatliche Scholle zu verlassen und sich aufs Mittelmeer zu wagen, um neue Gegenden zu besiedeln. Erst später versuchten sie es auch auf dem Landweg. So war Anatolien wohl das Sprungbrett für frühe Bauern aus dem Fruchtbaren Halbmond, die ihre Wirtschaftsform schließlich bis nach Mittel- und Westeuropa brachten. Auch dort dominierten ihre Nachfahren bald, während die Jäger und Sammler immer mehr in den Hintergrund gedrängt wurden.

Ganz anders als in Europa scheint die Neolithisierung in China abgelaufen zu sein. Während in Europa bereits domestizierte Pflanzen und Tiere von den bäuerlichen Pionieren eingeführt wurden und sich in wenigen hundert Jahren durchsetzten, existierte in China mehrere tausend Jahre lang eine ungewöhnliche Mischform. Zwar gab es schon früh Siedlungen und Gräberfelder, qualitätvolle Keramik, perfekt geschliffene Steingeräte und Mahlsteine. Doch die Domestikation von Tieren und Pflanzen kam offenbar erst später: Reis wurde vor ca. 10 000 Jahre erstmals am Jangtsekiang angebaut, nördlich davon um die gleiche Zeit Hirse. Hunde wurden als Fleischlieferanten gezüchtet, erst ab 8000 v. h. auch Schweine, Rinder und Schafe.

In Afrika verlief die Neolithisierung nicht so stringent wie andernorts. Vor 12 000 Jahren lebten Menschen auf dem Dogon-Plateau wahrscheinlich schon von einer planvoll betriebenen Ernte essbarer Wildpflanzen – nicht anders als zur gleichen Zeit im Umfeld des Göbekli Tepe (s. o.). Diese Vorstufe zur Ackerbaugesellschaft verlangte zumindest für die Zeit der Ernte Sesshaftigkeit – und wohl auch erste Eingriffe in die Natur, wie z. B. das Auflichten des afrikanischen Buschs durch Feuer. Für die Züchtung von Gräsern war es aber in vielen Gebieten zu feucht. Spätestens 9000 v. h. wurde im Zentrum der Ostsahara, damals noch mit reichlichem Pflanzenbewuchs, die Weidewirtschaft (Ziegen, später auch Rinder) entwickelt, wenngleich die Jagd weiterhin eine wesentliche Lebensgrundlage blieb.

REM

Der Prozess des ALTERNS

Altern ist aus evolutionsbiologischer Sicht eine unausweichliche Folge der natürlichen Auslese. Für den Bestand der Art reicht es völlig aus, wenn das Individuum Zeit hat, um Nachwuchs zu zeugen und aufzuziehen. Beim Menschen ist dieser „Einweg-Körper mit Verfallsdatum“ (Rusting 1993) nach 45 Jahren evolutionsbiologisch gesehen eigentlich nicht mehr erforderlich. Es wäre für die Natur auch sehr aufwändig, komplizierte Organismen wie uns dauerhaft „instand zu halten“. So setzt in zunehmendem Alter der körperliche Verfall ein und Anpassungs- und Widerstandsfähigkeit des Individuums gegenüber der Umwelt verringern sich.

Selbst bei Bakterien sind Alterserscheinungen nachzuweisen. Stäbchenförmige Bakterien z. B. teilen sich nur scheinbar in zwei gleich große Hälften. In Wahrheit übernimmt eine der Tochterzellen den Großteil der alten Ausstattung von der Mutter, während ihre Schwester überwiegend neu synthetisiertes Material abbekommt. Bakterien, die über mehrere Generationen jeweils das „alte Ende“ geerbt haben, wachsen nun langsamer als solche, denen neue zugefallen sind. Sie teilen sich seltener und sterben mit höherer Wahrscheinlichkeit.

Zellulärer Alterungsprozess

Unser Körper ist ständig damit beschäftigt, sich selbst zu verjüngen. So erneuert sich z. B. die Haut ständig: Alle 24 Tage wird ihre Oberschicht komplett ausgewechselt. Die Darm-Schleimhaut erneuert sich innerhalb von drei Tagen, das Blut tauscht sich innerhalb eines Jahres vollständig aus und die Leber erzeugt alle zwei Jahre eine neue Version. Dieser Prozess der permanenten Erneuerung funktioniert so gut, dass es kaum einen Teil des Körpers gibt, der älter als 10 Jahre ist. Sogar das Skelett ist alle 10 Jahre runderneuert. Es gibt aber auch Zellen, die eine viel längere Lebensspanne überbrücken müssen, weil sie sich nach der Geburt nicht mehr teilen, wie bestimmte Herzmuskelzellen, Pinealzellen und auch die Nervenzellen.

Nicht die Substanz des Menschen wird also erhalten, sondern nur das Muster – aber auch dieses nicht vollkommen. Denn somatische Zellen (Körperzellen) teilen sich nicht ewig, sie haben vielmehr eine begrenzte Teilungsfähigkeit, die von Zellart zu Zellart verschieden ist. So teilen sich beispielsweise die Hautzellen und Bindegewebszellen (Fibroplasten) eines Embryos insgesamt noch etwa 50mal. Verantwortlich für die Begrenzung der Anzahl der Teilungen sind die Telomere, repetitive (sich wiederholende), genfreie DNA-Sequenzen an den Enden der Chromosomen. Über Artgrenzen hinweg sind sie für deren Stabilität unerlässlich und umhüllen die Enden wie schützende Kappen.

Am Anfang des Lebens, in der befruchteten Eizelle, haben Telomere ihre maximale Länge. Immer wenn sich die Zelle teilt, gehen jedem Telomer einige Einheiten verloren, so dass sie im Verlauf der Zeit immer kürzer werden. So sammeln sich im gesamten Organismus mit der Zeit immer mehr Zellen mit verkürzten Telomeren an, die ihre Funktion bald einstellen, aufhören sich zu teilen und in die Seneszenz gehen. In der Seneszenz existieren die Zellen quasi im Ruhezustand weiter, können aber chronische Entzündungen fördern, die vielen Alterserscheinungen zugrunde liegen. Es spricht auch einiges dafür, dass dadurch nicht nur Krebs, sondern auch Arteriosklerose, Alzheimer, Typ-2-Diabetes und weitere Alterskrankheiten begünstigt werden. Zelluläre Seneszenz ist also nicht etwa eine bloße Begleiterscheinung des Alterns von Geweben und des gesamten Organismus, sondern trägt aktiv dazu bei.

Inzwischen wurde eine Gen-Variante entdeckt, die für besonders kurze Telomere verantwortlich ist. Wer diese spezielle Variante besitzt, hat nach den Erkenntnissen der Forscher eine etwa drei bis vier Jahre verkürzte biologische Lebenserwartung. Zahlreiche äußere Faktoren haben zudem Einfluss darauf, wie schnell die Telomere schwinden: z. B. Tabakkonsum oder Fettleibigkeit, entzündliche Prozesse im Körper oder chronischer und massiver Stress. Wie das genau geschieht, ist allerdings noch nicht geklärt. Auch mit sinkendem sozioökonomischen Status und bei hoher sozialer Belastung scheint die Telomerlänge schneller abzunehmen und sich das biologische Altern zu beschleunigen.

[Es existieren allerdings auch unbegrenzt teilungsfähige Zellen: Stammzellen, Keimzellen und Tumorzellen. Sie verfügen über einen Reparaturmechanismus, der das Enzym Telomerase herstellt und die Zellen jung hält. Dieses spezielle Enzym synthetisiert die verloren gegangene Telomer-DNA nach und verzögert so je nach Typ und Zustand der Zelle den Alterungsprozess. Allerdings ist es auch für das unbegrenzte Wachstum von 90% der Krebszellen verantwortlich. In den meisten Körperzellen ist daher die Telomerase nicht aktiv. Zudem wird ihre Wirksamkeit durch freie Radikale (s. u.), das Stresshormon Cortisol aber auch bestimmte Stoffwechselwege beeinträchtigt. ]

Wenn Schädigungen in der Zelle, z. B. durch fehlerhafte Kopien, einen Grenzwert überschreiten, wird das Apoptose-Programm gestartet, in dessen Verlauf sich die Zelle selbst planmäßig auflöst, ohne dass es zu Entzündungsvorgängen kommt. Es ist durchaus sinnvoll, dass Zellen sich nicht unendlich teilen können, denn im Laufe eines teilungsfreudigen Zell-Lebens häufen sich irreparable Schäden und Fehler an und die Gefahr einer bösartigen Entartung (Krebs) wird immer größer. Durch Apoptose werden also diese überflüssig gewordenen verletzten, infizierten oder auf andere Weise veränderten Zellen entfernt.

Täglich sterben durch Apoptose zehn Milliarden unserer Körperzellen. Ihre Rohstoffe werden wieder vollständig in den Stoffwechsel eingebracht – ein perfektes Recycling. Im Normalfall entsteht die gleiche Anzahl von Zellen im selben Zeitraum durch mitotische Teilungen neu. Über die gesamte Lebensdauer gesehen scheint aber ein Zellverlust durch Apoptose ein bedeutender Faktor des Alterns zu sein, insbesondere von Geweben wie Herz und Gehirn.

Alterungsprozess des Organismus

Altern geht mit diversen Verfallserscheinungen einher, neben vermehrtem Zellverlust mit entzündlichen Prozessen und Stoffwechselkomplikationen. Zu beobachten ist in der Physiologie eine Wende im Alter von etwa 35 bis 40 Jahren, oft eine Zeit, in der z. B. die Sportkarriere eines Athleten endet – ein Hinweis darauf, dass sich in diesem Alter wirklich etwas ändert.

So werden die Stützproteine des Bindegewebes nach und nach abgebaut und die Elastizität geht verloren. Auch die Haut verliert Substanzen wie Collagen und Elastin und wird faltig. Bestimmte Hautzellen verlieren ihre Fähigkeit, den Farbstoff Melanin zu produzieren: Wir bekommen nicht nur dünne, sondern auch graue Haare. Mit zunehmender Lebenszeit verlieren die Bandscheiben an Substanz, die Wirbel rücken enger zusammen, wir schrumpfen. Die Knochendichte nimmt allgemein ab, das Muskelaufbauprogramm erlahmt – der Körper wird schlaffer. Die Gelenke werden in ihrer Bewegungsfreiheit eingeschränkt. Der Stoffwechsel verlangsamt sich, Organe wie Herz, Lunge und Nieren verlieren an Leistungsfähigkeit, Blutgefäße verengen sich aufgrund von arteriosklerotischen Veränderungen, die Sinnesorgane lassen in ihrer Empfindlichkeit nach.

Die meisten Konzentrationen von Wachstums-, Sexual- und Stresshormonen sowie von Melatonin und DHEA (Dehydroepiandrosteron) nehmen mit dem Alter deutlich ab. Nur das wichtigste Stresshormon Cortisol wird im Alter eher vermehrt produziert. (Es ist mit verantwortlich für Osteoporose und schlechtere Gedächtnisleistungen.) Das Immunsystem verliert zunehmend an Leistungsfähigkeit. Es werden weniger Antikörper gegen Viren und Bakterien produziert. Infektionen werden riskanter; Lungenentzündung ist bei alten Menschen eine häufige Todesursache. Und es kommt sogar zu schädigenden Autoimmunreaktionen, d. h. das Immunsystem greift den eigenen Körper an.

Wie unser gesamter Körper so altert auch unser Gehirn. Allerdings lässt sich der Beginn der Hirnalterung nicht exakt bestimmen, denn für die meisten Funktionen unseres Zentralorgans gibt es ein eigenes Alternsprofil. So geht die synaptische Plastizität bereits in der zweiten bis dritten Lebensdekade zurück. Mit den normalen als auch mit krankhaften Alterungsprozessen geht auch eine Hirnatrophie einher, also ein Verlust an Hirnvolumen, zwischen dem 50. und dem 80. Lebensjahr durchschnittlich um 10% (in manchen Bereichen nur um 2%). Gleichzeitig geht mit zunehmendem Alter auch die Anzahl der Stammzellen zurück, die das Gehirn für die Neurogenese, also die Neubildung von Nervenzellen, benötigt. Die Neurogenese-Rate sinkt um 80%.

Der Hirnschwund geht wohl im Wesentlichen auf den Verlust von weißer Hirnsubstanz zurück. Verbindungen zwischen den einzelnen Gehirnregionen werden schwächer. Auch die graue Substanz schrumpft wohl über das gesamte Erwachsenenleben hinweg, bei geistig gesunden Menschen aber selbst in fortgeschrittenem Alter nicht unbedingt. Eine sichtbare Veränderung der mikroskopischen Struktur von Nervenzellen beginnt erst in höherem Alter.

Der natürliche Alterungsprozess macht vor den mentalen Fähigkeiten nicht halt. Der Startpunkt des geistigen Abbaus hängt u. a. auch von der Durchblutung des Gehirns ab, die etwa ab dem 55. Lebensjahr abnimmt. Vorgänge auf Grund arteriosklerotischer Verengung der Hirngefäße oder ein zu niedriger Blutdruck führen zu einer Unterversorgung mit Sauerstoff und Nährstoffen. Es verlangsamen sich verschiedene geistige Funktionen (verstärkt ab dem siebten Lebensjahrzehnt) und lassen weiter nach, beispielsweise die Fähigkeiten, neuartige Probleme zu lösen, Schlussfolgerungen zu ziehen und rasch zu reagieren, aber auch mehrere Dinge gleichzeitig zu tun.

Eine der wesentlichen verborgenen Manifestationen des Alterns ist ein Rückgang vieler Botenstoffe (Neurotransmitter), durch die die Nervenzellen miteinander kommunizieren. Die Genauigkeit in der Übermittlung der Nervensignale vermindert sich, große Netzwerke im Gehirn kommunizieren unkoordiniert und ungenügend miteinander. Leichte kognitive Störungen zeichnen sich durch eine Häufung von Erinnerungslücken aus. Vor allem Erinnerungen, die selten abgerufen werden, sind davon betroffen.

Ein zunehmender Gedächtnisverlust für alles bewusst Gelernte ist also – genauso wie der Verlust an Muskelstärke – im Alter unvermeidlich, wobei das Namensgedächtnis das erste Merkvermögen ist, was nachlässt. Zwar liegen die meisten einmal erlernten Inhalte in Form chemischer Markierungen nach wie vor im alternden Hippocampus, ein für das Gedächtnis wichtiger Hirnteil, aber nun möglicherweise „ganz unten im Stapel“. In der Regel handelt es sich bei Gedächtnislücken also nicht nur um ein Speicher-, sondern eher um ein Zugriffsproblem.

Neue Informationen werden nicht mehr so leicht ins Langzeitgedächtnis aufgenommen. Ältere Menschen brauchen längere und häufigere Lernphasen, um Erinnerung aufzubauen, denn mit zunehmendem Alter reduziert sich die Kapazität des Arbeitsgedächtnisses, das die selektive Aufmerksamkeit im Gehirn steuert. Die Offenheit für neue Erfahrungen (Lust auf Neues) nimmt ab. Mit 80 oder 90 Jahren sind Menschen dann mehr oder weniger veränderungsresistent.

Aber selbst wenn die Hirnstrukturen degenerieren, bedeutet das nicht, dass darunter die kognitiven Fähigkeiten leiden. Der IQ des Menschen scheint bis ins hohe Alter erstaunlich stabil zu bleiben. Altersbedingte strukturelle Veränderungen kann unser Denkorgan wenigstens zum Teil auf Grund seiner funktionellen Plastizität wieder auffangen. Bestimmte Hirnregionen werden zusätzlich aktiviert, um die geringere Leistungsfähigkeit in Bezug auf Gedächtnis, Konzentration und Koordination von Denken und Handeln möglichst gut zu kompensieren. Ältere Menschen greifen stärker auf beide Hirnhälften zurück als Jüngere und können auf diese Weise Leistungseinbußen ausgleichen. Auch verlagert sich die neuronale Aktivität von hinteren in vordere Regionen (PASA-Effekt; von engl. Posterior-Anterior Shift in Aging), was offenbar ebenso hilft, altersbedingte neuronale Einbußen auszugleichen.

Wortschatz und Kurzzeitgedächtnis nehmen erst im sehr hohen Alter ab – und das autobiografische Gedächtnis scheint überhaupt nicht nachzulassen. Es gibt sogar Komponenten unseres inneren Speichers, die sich im fortgeschrittenen Alter noch verbessern können – darunter das Expertenwissen, das von möglichst viel Erfahrung profitiert. Im Durchschnitt aber treten trotz allem jenseits der 70 deutliche Veränderungen auf.

Theorien zur Ursache des Alterns

Die Forscher vertreten verschiedene Theorien, die das zunehmende Nachlassen der körperlichen Funktionen im Alter erklären sollen. Mehr als 300 Theorien sind bisher bekannt, vom puren Zufall über Reduzierung der Telomere bis zum genetischen Programm. Alterungs-Gene, genetische Mutationen, negative Einflüsse der Hormone, des Immunsystems oder freie Radikale werden demnach für das Altern verantwortlich gemacht. Ausgangspunkt aller Theorien ist die Beobachtung, dass sich für jede Tier- und Pflanzenart ein spezifisches Lebensalter angeben lässt, das durch Umwelteinflüsse meist nach unten korrigiert wird.

Grundsätzlich kann man zwei große Theorien unterscheiden. Danach sind Altern und Tod entweder genetisch programmiert, also ein aktiver Vorgang im Körper, oder eine passive Abnutzungserscheinung. Vielleicht sind sie auch von beiden etwas. Jedenfalls sind sie sozusagen eine Nebenwirkung des Lebens, für das die Zellteilung eine der Grundvoraussetzungen ist.

Programmtheorien

In zahlreichen Theorien (Programmtheorien) gibt es die These, Altern sei weniger ein Verfall als vielmehr eine aktive Fortsetzung der genetisch programmierten Entwicklung eines Lebewesens. Danach ist für die meisten Veränderungen in der äußerlichen Erscheinung, an denen wir das Alter eines Menschen ablesen können, nicht Abnutzung verantwortlich. Vielmehr steuere die Erbsubstanz nicht nur der Entwicklung des Körpers, sondern beteilige sich auch aktiv durch die genetisch gesteuerten Produktion eines oder mehrerer „Alternsfaktoren“ an seiner Demontage. Dafür spricht auch, dass gewisse Alternsphänomene sehr konstant auftreten. Es werden immer wieder familiäre Häufungen von besonders langlebigen Personen beobachtet, die langsamer altern und weitgehend von alterstypischen Leiden wie Gefäßerkrankungen, Diabetes, Krebs oder Alzheimer verschont bleiben.

Dass Gene und ihre Varianten an Alterungsvorgängen beteiligt sind, ist unzweifelhaft. Bei Tieren (z. B. Fadenwürmern) wurden zum einen „Alterungs-Gene“ gefunden, die dafür sorgen, dass das Tier innerhalb der normalen Lebensspanne stirbt, zum anderen aber auch sog. „Langlebigkeitsgene„. Bestimmte Gene (sog. Reparaturgene) überwachen dabei die Präzision der Stoffwechselvorgänge und korrigieren manche Schäden. Allerdings arbeiten solche Reparaturprogramme mit dem Alter weniger präzise und machen Fehler.

Auch beim Menschen gibt es viele Gene, die einen negativen Effekt auf die Lebensdauer haben, und ebenso solche, die eher für ein langes Leben sorgen. Bei Letzteren gibt es allerdings bisher nur wenige eindeutige Beispiele für ihre tatsächliche Wirkung. Die Evolution und einige empirische Studien sprechen dafür, dass genetische Varianten, welche die Langlebigkeit erheblich steigern, unter natürlichen Bedingungen eigentlich selten vorkommen, da sie auf Kosten der Nachkommenzahl gehen.

Varianten des Apolipoprotein-E-Gens (APOE) erwiesen sich in mehreren Studien als Faktoren, welche die Mortalität im höheren Alter um etwa 10 bis 20% gegenüber dem Durchschnitt erhöhen oder senken. Die drei menschlichen Hauptvarianten des Gens gibt es bei anderen Primaten nicht.          APOE-e4 ähnelt noch stark dem APOE-Gen der Schimpansen. Gut möglich, dass das Genprodukt bereits die Lebensdauer erweiterte. Es scheint allerdings eine gravierende Kehrseite zu haben: Vermutlich trägt es zu typischen Altersgebrechen wie Arteriosklerose bei – ein klassischer Fall für eine Erbanlage mit mehreren, vielschichtigen Funktionen, wobei in der Jugend typischerweise die vorteilhaften hervortreten und erst später die nachteiligen.                              Vor vielleicht 200 000 Jahren, in einer Zeit, als der Homo sapiens in Afrika gerade entstanden war, dürfte eine zweite wichtige APOE-Variante aufgetreten sein: APOE-e3. Dieses Allel verhilft 40- bis 70-Jährigen zu besserer Gesundheit (Entzündungsreaktionen fallen weniger vehement aus) und verlangsamt die Alterung, vor allem, wenn jemand es doppelt besitzt, also von beiden Eltern geerbt hat. In heutigen Populationen tragen 60 bis 90% der Menschen die Genvariante mindestens einfach.       APOE liegt bei den meisten Menschen in den Varianten e3 oder e4 vor. Wer das seltenere Gen APOE-e2 besitzt, wird bis ins hohe Alter vor Krebs und anderen Leiden (z. B. Arteriosklerose) geschützt, sogar vor der Alzheimer-Krankheit. Es wird vermutet, dass es auf nicht geklärte Weise freie Radikale (s. u.) in Schach hält.

Einige Forscher jedenfalls schätzen, dass bis zu 7000 Gene an der Steuerung des Alternsprozesses beteiligt sind. Ein ganzes Sortiment wurde bereits identifiziert und kann bei verschiedensten Organismen die Lebensdauer positiv oder negativ beeinflussen. Ihr Zusammenspiel wird aber noch nicht verstanden. Eine Theorie besagt, dass die Selektion die Aktivität vieler Gene, die mit Krankheiten assoziiert werden, im fortpflanzungsfähigen Alter unterdrückt. Erst in späteren Jahren, wenn solche Gene nur noch einen geringen Einfluss auf den Reproduktionserfolg eines Individuums haben, kommen deren schädliche Auswirkungen ungehindert zum Tragen. Manche Forscher fassen das Altern so als epigenetische Krankheit auf. Durch Anhängen, Entfernen und Verändern von Methyl- oder Azetylgruppen in einigen Genom-Regionen wird im Laufe eines Lebens die Wirkung von Genen verändert.

Die sogenannten SIR-Gene könnten zu einem übergeordneten regulatorischen Netzwerk für das Altern gehören, eventuell sogar die möglichen Dirigenten sein. Mehrere ihrer bislang identifizierten Zielproteine steuern wichtige Prozesse, darunter Apoptose, Zellabwehr und Stoffwechsel.

Verschleißtheorien

Verantwortlich für das Altern sind aber sicher nicht die Gene allein. Für die Vertreter der Verschleißtheorien ist Altern das unvermeidbare Resultat der Abnutzung von Zellen und ihrer Erbsubstanz aufgrund schädigender Einflüsse. Im Laufe eines Lebens sammeln sich in den Zellen sogenannte freie Radikale an, Nebenprodukte der Stoffwechselvorgänge. Vor allem sind es hochreaktive Sauerstoffradikale (Oxidantien; z. B. O2oder OH) und Stickstoffradikale (z. B. NO), die als besonders aggressiv gelten. Wir nehmen sie auch bei intensiver Sonnenstrahlung (UV-Strahlung), verschmutzter Luft oder mit gegrilltem Fleisch auf.

Schäden durch einen dauerhaft erhöhten Spiegel intrazellulärer Oxidantien löst unmittelbar zelluläre Alterungsprozesse aus. Neurone reagieren besonders empfindlich auf oxidativen Stress. Die freien Radikale dringen auch in den Zellkern ein, wo sie das Erbgut schädigen. So tragen sie ebenfalls z. B. zur beschleunigten Verkürzung der Telomere bei und beeinträchtigen außerdem die Wirksamkeit der Telomerase. Insbesondere das Erbgut der Mitochondrien (sie versorgen den Köper mit Energie) ist leicht angreifbar. Diese arbeiten dann zunehmend fehlerhaft und bringen weniger Leistung – für manche Forscher ein wichtiger Schlüssel für das Altern.

In welchem Ausmaß freie Radikale im Körper auftreten, hängt auch von den Schutz- und Reparaturmechanismen der Zellen ab. Ein fein austariertes antioxidatives Abwehr- und Entgiftungssystem (zu dem auch Vitamine, Hormone und Enzyme gehören) verhindert die toxische Anreicherung der Radikale, indem sie diese einfangen und inaktivieren, ehe sie schaden können. Einige dieser Antioxidantien, wie die Vitamine C und E, nehmen wir über die Nahrung auf, andere kann der Organismus selbst herstellen, etwa das Hormon Melatonin.

Auch die Harnsäure ist ein hochwirksames Antioxidans. Vielleicht sind hohe Harnsäurewerte für die meisten Menschen daher von Nutzen, weil sie die Alterung des Gewebes verlangsamen – einige zahlen allerdings dafür Tribut in Form von Gicht.

Die Radikalenfänger funktionieren fast reibungslos, so lange wir jung sind. Mit zunehmendem Alter arbeiten die Schutzmechanismen nicht mehr so effektiv. Die natürlichen Mechanismen zur Wartung und Reparatur des Körpers erlahmen allmählich und dem Organismus geht schließlich die Kraft aus, die der jugendliche Körper dem Verfall noch entgegengesetzt hat. Alterungsprozesse bis hin zum Tod von Organismen werden heute von vielen Biomedizinern als Folge der Akkumulation von Schäden (chemischem Verschleiß) gesehen.

Freie Radikale scheinen an einer ganzen Reihe von Alterskrankheiten beteiligt zu sein, beispielsweise Arteriosklerose, Krebs, Muskeldystrophie und Rheuma. (Beta-Amyloid – Hauptauslöser von demenziellen Erkrankungen – könnte z. B. über freie Radikale sein gefährliches Potenzial entfalten.) Doch reaktionsfreudige Atome und Moleküle sind nicht per se gesundheitsgefährdend: In geringer Konzentration und unter bestimmten Umständen könnten sie sogar ein Teil der Körperabwehr sein und zelluläre Reparatursysteme erst in Gang setzen. Möglicherweise halten die freien Radikale den Körper auf einem konstanten Stresspegel, den der Organismus laufend kompensieren muss – wodurch er wahrscheinlich besser in der Lage ist, akuten Stress zu bewältigen.

[Nach einer anderen Theorie, der AGE-Theorie (AGE = advanced glycation end-products), sind strukturvernetzende Glukose-Protein-Verbindungen für das Altern verantwortlich. Eiweiße „karamellisieren“ – wie bei der Bonbonherstellung – und werden unbrauchbar. Die verzuckerten Proteine bilden sinnlose Batzen, welche die Gelenke versteifen, die Augenlinsen trüben und die Arterien verstopfen. Zugleich stellt der Körper immer weniger neue Eiweiße her. Im hohen Alter ist schließlich fast die Hälfte aller Proteine geschädigt.]

Ergebnis

Gerontologen haben inzwischen neun zelluläre und molekulare Merkmale identifiziert, die eng mit dem Altern und der Sterblichkeit verbunden sind. Es handelt sich um natürliche und unvermeidliche Folgen des jahrzehntelangen Betriebs einer komplizierten zellulären Maschinerie. Sie reichen von der Verkürzung der Telomere über die Anhäufung defekter Proteine und giftiger Stoffwechselprodukte bis zur Abnutzung von Stammzellen. Für Vertreter der Hormontheorie sind zumindest einige Alterungsprozesse auch eine Folge der nachlassenden Fähigkeit der Zirbeldrüse, das Hormon Melatonin zu bilden, das nicht nur für erholsamen Schlaf sorgt, sondern auch das Wachstum bestimmter Krebszellen hemmt und vermutlich vor freien Radikalen schützt.

Die Steuerung der Altersprozesse beim Menschen scheint also insgesamt sehr kompliziert und komplex. Eine eindeutige Entscheidung für eine bestimmte Alterungshypothese ist schwierig, nicht nur wegen dieser Komplexität. Moderne Theorien verbinden daher Aspekte der diversen konkurrierenden Erklärungsversuche. Biologisch betrachtet handelt es sich beim Alterungsprozess dementsprechend wohl um einen „multifaktoriellen“ Prozess, der zu 30% von den Genen und zu etwa 70% von den Lebens- und Umweltbedingungen beeinflusst wird. Die Blut-Hirn-Schranke wird im Alter durchlässiger für Giftstoffe oder Krankheitserreger, die Entzündungsprozesse auslösen und so Neurone zerstören können. Rund 2% aller 60-Jährigen entwickeln eine Form von Demenz, wobei sich das Risiko von da an alle fünf Jahre verdoppelt. Mit 80 liegt es bereits über 30%.

Steigende Anfälligkeit für oxidativen Stress, die Akkumulation von fehlgefalteten Proteinen, das vermehrte Übergewicht einzelner wirkmächtiger Gene und all die anderen diskutierten Faktoren sind aus der Systemperspektive aber auch Anzeichen für die außerordentliche Variabilität des Alterns. Die Vielfalt der Faktoren und die Komplexität der zu Grunde liegenden Mechanismen führen dazu, dass Altern letztlich doch eine höchst individuelle Angelegenheit bleibt. In jedem Individuum sind die Beiträge der einzelnen Faktoren sehr unterschiedlich und beeinflussen sich gegenseitig.

Beeinflussbarkeit des Alterungsprozesses

Altern, so der kanadische Evolutionsbiologe Michael Rose, sei ein „optionaler Bestandteil des Lebens“, der sich „verlangsamen und hinausschieben“ lässt. Schon seit Jahrtausenden bemühen sich die Menschen darum, herauszufinden, wie sie den Prozess des Alterns aufhalten können. Aber selbst die moderne Wissenschaft tut sich dabei schwer. Grundsätzlich schlägt sie zwei Optionen vor: Schäden eindämmen, beispielsweise durch Verbesserung der Lebensbedingungen und durch Krankheitsprävention, und Reparaturen verbessern, etwa durch medizinische Eingriffe.

Das genetische Erbe zu verändern, ist außerordentlich schwierig, denn man müsste an sehr vielen Stellen im Genom gleichzeitig angreifen. Aber innerhalb dieses Rahmens können wir das eigene Altern selbst gestalten. Verhaltensweisen und Lebenserfahrungen einschließlich der durchgemachten Infektionskrankheiten haben Einfluss darauf, wie schnell Menschen altern. So können übermäßiger Stress, Bewegungsmangel, falsche Ernährung und andere äußere Faktoren (wie Nikotin und Alkohol) und allerlei Krankheiten den Alterungsprozess beschleunigen. Ein gesunder Lebensstil, gesunde Ernährung und sportlicher Lebenswandel dagegen können Altersdefiziten wirksam vorbeugen.

Regelmäßige körperliche Aktivitäten lassen die Stammzellproduktion ansteigen. So können die Prozesse der Immunalterung zurückgedreht und der Prozess der Autophagie gefördert werden, was den Körper länger jung hält. Körperliche Bewegung hat auch Auswirkung auf Hirngesundheit und Demenz im Alter (um 20% geringeres Demenzrisiko). Die synaptische Plastizität (das, was Lernen ausmacht) wird erhöht und die altersbedingte Schrumpfung des Hirnvolumens kann sich sogar umkehren.

Vitamine gelten schon lange als eine effektive Waffe im Kampf gegen das Altern. Eine überwiegend pflanzliche Ernährung mit viel Obst und Gemüse dämmt oxidativen Stress im Organismus ein. Eine 10- bis 30-prozentige Kalorienreduktion fährt in vielen Organismen die Aktivität der wichtigsten Signalwege des Alterns herunter. Bleibt die Nahrungsbeschränkung langfristig aktiviert, wirkt sie auch krankheitsvorbeugend (bei Altersleiden) und sogar lebensverlängernd. Beim Menschen sollen Krebs, Diabetes und neurodegenerative Erkrankungen seltener auftreten. Temporäres Fasten, z. B. einmal wöchentlich für 15 bis 20 Stunden, gilt als eine Art Doping für die Zellen des Körpers.

[Widrige Bedingungen wie Nahrungsmangel bedeuten Stress für den Organismus. In diesem Alarmzustand entstehen weniger neue Proteine und die Zellteilung verlangsamt sich. Durch die geringere Stoffwechselrate bilden sich weniger schädliche Stoffwechselprodukte wie freie Radikale. Dadurch werden vermehrt Ressourcen freigesetzt, die jetzt in die DNA-Reparatur oder andere Schutzmaßnahmen gesteckt werden können. Die Autophagie wird hochgefahren und der ständig nötige Aufräumprozess der Zellen so auf hohem Niveau gehalten. Die Proteinsynthese verlagert sich und produziert jetzt vermehrt vor allem wichtige Bausteine der Mitochondrien, was die Energieversorgung verbessert.]

Mentales Training kann neurodegenerative Erkrankungen (z. B. Demenz vom Alzheimer-Typ) zwar nicht verhindern, aber ihr Auftreten hinauszögern und den Verlauf beeinflussen. Es kann sogar die geistige Leistungskapazität auch im Alter noch erhöhen, da mehr Wachstumsfaktoren für Nervenzellen (Neurotropine) gebildet werden. Insgesamt kann ein hoher Bildungsgrad dem geistigen Abbau entgegenwirken und das Risiko für kognitive Probleme senken.

Alte Menschen sollten daher aktiv nach frischen Eindrücken suchen, nach unbekannten Aromen, nach neuen Ausflugszielen oder Bekanntschaften. Es ist der beste Weg, um das Gehirn jung, plastisch und wachsam zu halten. Denn Neugier und die Erkundung von Neuem können das Lern- und Gedächtnissystem positiv beeinflussen. Es lohnt sich auch noch im hohen Alter, Neues zu lernen, etwa eine Sprache oder ein Instrument, aber auch alte Geschichten zu erzählen und beim Umgang mit anderen Menschen viele sprachassoziierte Gedächtnisfunktionen zu bewahren.

Ein gesunder Lebensstil – regelmäßige Bewegung, gesunde Ernährung, abwechslungsreiche geistige Beschäftigung und eine reges und intaktes Sozialleben – scheint folglich im Alter hilfreich zu sein und bietet eine gute Gewähr für lang anhaltende körperliche und geistige Fitness. Nach Schätzung der UNO lebten 2020 weltweit etwa 573 000 über Hundertjährige, mehr als 20-mal so viel wie 50 Jahre zuvor. Hunderte von Menschen sind sogar 110 Jahre und älter. Zusammen mit medizinischen Fortschritten kann gesunder Lebenswandel möglicherweise die mutmaßliche biologische Grenze von 120 Jahren zu einer normalen Lebenserwartung machen. Doch die Wahrscheinlichkeit, länger als 120 oder 125 Jahre zu leben, dürfte verschwindend gering sein. Jeanne Calment, der älteste bekannte Mensch, der -wissenschaftlich bestätigt – je gelebt hat, starb im Jahre 1997 im Alter von 122 Jahren in Frankreich.

REM

Die Sonne (1)

Sonnenwind und Sonnenstürme

Die Sonne – Quell des Lebens. Ohne ihr Licht und ihre Wärme wäre die Erde öd und leer – und auch wir Menschen würden nicht existieren. Die Bedeutung der Sonne war schon unseren Ahnen bewusst. In zahlreichen Kulturen wurde unser Heimatgestirn als Gott verehrt. So befahl beispielsweise der Pharao Echnaton seinem Volk den Glauben an Aton, die Sonnenscheibe. Sollte die Leistung des Sterns einmal um 1 bis 2% schwanken, würde sich unser Leben drastisch verändern.

Die Sonne ist, was Masse und Helligkeit betrifft, ein Durchschnittsstern, ein sogenannter „Gelber Zwerg“. Ihr Volumen, etwa eine Million mal so groß wie das der Erde, enthält 98% der gesamten Masse des Sonnensystems. Der (mittlere) Durchmesser der Sonne beträgt 1 Million 392 700 Kilometer. Sie entstand vor knapp 4,6 Milliarden Jahren im Zentrum des solaren Urnebels, als dort in einer Gaskugel aus etwa 70% Wasserstoff, 28% Helium und 1 bis 2% schweren Elementen die Kernreaktion zündete: Wasserstoffkerne verschmolzen zu Helium und setzten dabei ungeheure Mengen an Strahlung frei.

Im Alter von 40 Millionen Jahren stabilisierte sich die Strahlung bei rund 70% des heutigen Wertes. Danach folgte ein sehr langsamer Anstieg, der bis heute andauert, denn aus physikalischen Gründen nimmt der Brennstoff (Wasserstoff) zwar ab, aber das Feuer wird heller. Das Massenverhältnis Wasserstoff/Helium beträgt heute im Sonnenzentrum etwa 63 zu 35%. Da etwa 1/10 des gesamten Wasserstoffvorrats die für die Fusion erforderlichen Temperatur und Dichte aufweist, kann unser Stern seine Strahlungsenergie insgesamt ungefähr 10 Milliarden Jahre lang aus dem Verbrennen von Wasserstoff beziehen.

Auf dem Weg zur Erde, die in einer Entfernung von etwa 149,6 Kilometer die Sonne umkreist, verliert die Strahlung den größten Teil ihrer Energie und kühlt ab. Da die meisten ihrer spektralen Anteile durch Absorption von Molekülen in der Atmosphäre herausgefiltert werden, kommt auf der Erdoberfläche vor allem sichtbares Licht sowie infrarotes Licht (Wärme) an.

Bau der Sonne

Die Fusion von Wasserstoff zu Helium findet bei einem hohen Druck (200 Millionen bar) und hoher Temperatur (rund 15 Millionen Grad Celsius) im Kern der Sonne statt. Dabei werden pro Sekunde Millionen von Kilowattstunden Energie frei. Diese Fusionsenergie wird von Photonen (Röntgenstrahlung) nach außen transportiert, zunächst durch die Strahlungszone (etwa 500 000 Kilometer vom Sonnenmittelpunkt bis zu sieben Zehntel ihres Radius). Wegen der Dichte des Plasmas kommen die Lichtteilchen nicht vernünftig vorwärts, da sie immer wieder von Materie (Elektronen und Atomkernen) geschluckt, wieder abgegeben und zurückgeworfen werden. Daher braucht ein Photon einige zehntausend bis hunderttausend Lichtjahre, bis es die Sonne endgültig verlassen kann.

Die Konvektionszone, die äußere, 200 000 Kilometer dicke Schicht der Sonne, reicht vom äußeren Rand der Strahlungszone bis unmittelbar unter die Sonnenoberfläche. Hier geht der Transport der Energie aus der Kernfusion weiter, aber zusätzlich kommt es zu einem Wärmetransport, der Konvektion (von lat. „convectum“ = „mitgetragen“): ein ständiges Auf und Ab heißerer und kühlerer Gase, ganz ähnlich wie in einem Kochtopf.

In der Tachokline, dem turbulenten Grenzbereich von Strahlungszone und Konvektionszone, vermuten die Wissenschaftler den Sitz des mysteriösen Sonnendynamos, der ein Magnetfeld erzeugt. Hier gibt es einen starken Bruch in der Rotation der Sonnenmaterie, woraus der Dynamo-Effekt entstehen könnte, bei dem die Bewegungsenergie aus der Strömung in magnetische Energie überführt wird. (Allerdings sind manche Sonnenforscher skeptisch, da noch nicht bewiesen ist, dass ein Sonnendynamo überhaupt existiert.) Auf jeden Fall erzeugen hier heftige Turbulenzen enorme elektrische Ströme, die mit einer Stärke von etwa 1000 Milliarden Ampere zirkulieren. Wie ein elektrischer Strom in einem Kupferdraht erzeugen diese ständig in Bewegung befindlichen Plasmaströme um sich herum ein gewaltiges Magnetfeld.

Die Photosphäre ist der Teil von der Sonne, den wir von der Erde aus sehen. Sie ist 400 Kilometer dick und enthält ionisiertes Gas, „nur“ 5800 Grad Celsius heiß. Von hier strahlt die Sonne den größten Teil ihrer Energie als Licht ab, das in circa 8,3 Minuten die Erde erreicht. In der Chromosphäre lodern die Feuerfontänen, die immer wieder aus der Photosphäre hochschießen (kleine Eruptionen). Heiße Schichten aus ionisiertem Gas (vor allem Wasserstoff und Helium) bilden einen milchigweißen Strahlenkranz über Photosphäre und Chromosphäre, der sich bis zu 20 Sonnenradien weit in den Raum erstreckt, die Korona. Ihre Helligkeit entspricht nur einem Millionstel der normalen Sonnenhelligkeit. Normalerweise ist sie nur im Röntgen- und Radiowellenbereich sichtbar – oder bei totaler Sonnenfinsternis. Noch unklar ist, warum die Korona mehrere Millionen Grad heiß ist, während an der Sonnenoberfläche nur knapp 6000 Grad Celsius herrschen.

Magnetische Kurzschlüsse (s. u.) schleudern Energie in die Korona und könnten dadurch das in ihrem Umfeld gefangene Plasma auf die beobachtete Temperatur erhitzen. Dazu könnte eine besondere Art dünner Plasmajets (sogenannte Spikule: kleine kurzlebige Strahlenausbrüche am Übergang zur unteren Korona) beitragen. Welche besonderen physikalischen Prozesse die Jets antreiben und wie das Gas in ihnen auf derart hohe Temperaturen aufgeheizt wird, muss aber noch herausgefunden werden.

Das Magnetfeld der Sonne

An der Oberfläche der Sonne treten jeweils an zwei Stellen Magnetfeldlinien aus und bilden ein bogenförmiges Magnetfeld, eine Schlaufe mit magnetischem Nord- und Südpol. Zahllose dieser rund 800 000 Kilometer langen magnetischen Schleifen sind über die Sonnenoberfläche verteilt. Ihre ursprünglich von Süd nach Nord verlaufenden Magnetfeldlinien werden durch die Drehung der Sonne in Rotationsrichtung mitgeschleppt. Da sich die Materie in der Äquatorregion schneller bewegt als in mittleren und höheren Breiten, werden die Feldlinien in komplizierter Weise gedehnt und verzogen. Dabei verdrillen sie sich und speichern über mehrere Tage hinweg immer mehr Energie – wie ein Gummiband, das man verdreht.

Überschreitet die Spannung einen kritischen Wert, können sich die Magnetfeldlinien mit gegensinniger Polung wieder verbinden. Die Astronomen sprechen von magnetischer Rekonnexion („Wiederverbindung“). Die Magnetfelder löschen sich dabei zum Teil gegenseitig aus – und die gespeicherte Energie wird schlagartig frei. Es kommt zu teilweise heftigen Explosionen, die vor allem im Röntgen- und ultravioletten Licht zu sehen sind. Dabei wird ein Schwall hochenergetischer Teilchen in das Sonnensystem geschleudert (s. u.). Zurück bleiben ein Magnetfeld geringerer Stärke sowie schwächere elektrische Ströme.

Wo die Magnetfeldlinien aus der Photosphäre heraustreten bzw. wieder in sie eintauchen, entstehen paarweise (magnetisch verschieden gepolte) Sonnenflecken, deren Größe oft ein Mehrfaches des Erddurchmessers beträgt. Es handelt sich um kältere Zonen in der Sonnenatmosphäre (3700 Grad Celsius), wo das starke Magnetfeld den Hitzetransport aus den darunter liegenden Schichten behindert. Da von hier weniger intensive Strahlung ausgesendet wird, wirken diese Stellen dunkel.

Die Sonnenflecken verändern sich ständig und geben der Sonne ein wechselndes Aussehen. Ursache ist die Sonnenaktivität, die in einem Rhythmus von ungefähr 11 Jahren zu- bzw. abnimmt. Insgesamt handelt es sich also um einen etwa 22-jährigen Zyklus. Nimmt die Sonnenaktivität zu, gibt es stärkere Eruptionen und es werden mehr Teilchen abgegeben; die Sonne zeigt sich insgesamt heißer. Im solaren Maximum, auf dem Höhepunkt des Zyklus, erreicht die Zahl der Flecken ein Höchstmaß, je nach Zählweise 150 bis 200 Flecken. Es treten besonders viele energiereiche Phänomen auf – etwa Protuberanzen und koronale Massenauswürfe (s. u.). Gleichzeitig wird das Dipolfeld der Sonne so schwach, dass es sich schließlich umkehrt. Im solaren Minimum tritt relative Ruhe ein und die Sonnenflecken verschwinden fast ganz oder sogar komplett.

Erst in Teilen ist geklärt, warum sich das Magnetfeld der Sonne regelmäßig umkehrt. Es könnten großräumige Plasmaströme unter der Sonnenoberfläche eine entscheidende Rolle spielen. Die meisten Theorien lokalisieren die Entstehung des Sonnenzyklus am Boden der Konvektionszone. (Neben dem 22-jährigen Zyklus gibt es noch zwei weitere: einen von 80 bis 90 Jahren und einen etwas über 200 Jahren. Der Verlauf der Sonnenaktivität lässt sich so nicht exakt voraussagen.)

Der Sonnenwind

Da die Korona so heiß und unruhig ist, vermag selbst die Sonne mit ihrer enormen Gravitation sie nicht mehr fest an sich zu binden. Daher strömt stetig ein Partikelwind aus geladenen Teilchen (überwiegend Protonen und Elektronen) entlang der offenen Magnetfeldlinien in das Planetensystem ab, wobei das Magnetfeld in den interplanetaren Raum mitgerissen wird. Jede Sekunde verliert die Sonne so Millionen Tonnen geladener Teilchen, die als Sonnenwind durch das Sonnensystem jagen.

Typischerweise weht der Sonnenwind mit 400 bis 800 Kilometer pro Stunde – 10 000mal so schnell wie irdische Orkane. Der langsamere Anteil stammt aus der Äquatorregion, wo der Sonnenwind durch Störungen im solaren Magnetfeld stark gebremst wird. Die energiereicheren Teilchen haben ihren Ursprung dagegen in polaren Regionen. Dort wirken die Magnetfeldlinien auf bisher unbekannte Weise als Beschleuniger. Da unser Stern langsam rotiert (einmal in 27 Tagen), wird das Plasma auf Spiralbahnen gezwungen und aufgefächert. Dabei entsteht ein komplexes Strömungsmuster – und mit ihm verwickelte Magnetfelder. In vier bis fünf Tagen – nach starken Eruptionen auch schneller – erreicht der Sonnenwind die Erde.

Das extrem heiße Plasma des Sonnenwinds mit seinem Magnetfeld fegt eine ausgedehnte Blase rund um die Sonne frei: die sogenannte Heliosphäre. An ihrer Grenze, dem Rand des Sonnensystems, rund 14 Milliarden Kilometer von der Sonne entfernt, werden die Teilchen von den Magnetfeldern des interstellaren Mediums abgebremst. Hier verliert auch das Magnetfeld der Heliosphäre an Einfluss. Allerdings sorgt es auch für einen gewissen Schutz vor der kosmischen Strahlung, da es die meisten niederenergetischen kosmischen Strahlen ablenkt (mindestens 75%), bevor sie das innere Sonnensystem erreichen. Schwächelt der Sonnenwind, können mehr Teilchen aus dem interstellaren Medium eindringen. So erreichte die kosmische Strahlung auf unserer Erde 2009 ein Rekordhoch: Die Zahl energiereicher Teilchen stieg um ein Fünftel gegenüber dem bisherigen Maximalwert an.

Sonneneruptionen

Bei der Rekonnexion können riesige Mengen Energie in Form von Strahlung und Wolken heißer, geladener Teilchen in gigantischen Eruptionen ins All katapultiert werden. Sonnenphysiker unterscheiden Flares, Protuberanzen und koronale Massenauswürfe.

Flares sind plötzlich auftretende, zwanzig Minuten bis zu mehreren Stunden dauernde heftige Ausbrüche energiereicher Teilchen und intensiver Röntgenstrahlung. Sie treten auf relativ kleinen Skalen in der Größenordnung von einigen Tausend Kilometern auf. Dabei geht fast die gesamte Energie zunächst in die Teilchenbeschleunigung. Ein Teil der Partikel schießt auf die Oberfläche herab und erzeugt beim Aufprall die für uns sichtbare Flare-Strahlung, deren Energie der Sprengkraft von einer Milliarde Wasserstoffbomben mit jeweils einer Megatonne TNT entspricht. Gleichzeitig rast ein Teil der Partikel mit hoher Geschwindigkeit von der Sonne fort in große Höhen (bis zu 100 000 Kilometer). Da auch ein Teil der Magnetfelder aufsteigt, besitzen sie immer noch Bogenform, in denen das heiße Gas leuchtet. Solche Protuberanzen sind zuweilen mehrere Monate lang stabil.

Ist ein Flare besonders intensiv, bricht die magnetische Blase, die Millionen von Kilometern durchmessen kann, oben auf. Dann dehnen sich die Feldlinien weit ins Sonnensystem aus, und bis zu 100 Milliarden Tonnen schwere Plasmawolken aus Elektronen und Protonen schießen mit bis zu 3000 Kilometer pro Sekunde weit hinaus ins All – ein koronaler Massenauswurf. Der riesige Teilchenschauer durchpflügt den langsameren Sonnenwind und beschleunigt durch seine Stoßwelle manche der Partikel auf noch höhere Geschwindigkeiten. Die größten der koronalen Eruptionen treten vor allem in der nahen Umgebung von Sonnenflecken auf und gehen typischerweise mit einem oder mehreren intensiven Flares einher.

Auswirkungen auf die Erde

Unser Planet wird von einem Magnetfeld umspannt, das als zuverlässiger Schutzschild vor der schädlichen Strahlung aus dem All gilt. Es hat seinen Ursprung im Erdkern, wo durch die Bewegung der glutflüssigen Eisenlegierung des äußeren Kerns um den festen inneren Kern wie bei einem Dynamo mechanische Energie in elektrische verwandelt wird. Das Streufeld der elektrischen Ströme, hervorgerufen durch die Rotation der Erde, ist (wie in einer stromdurchflossenen Spule) die Ursache für das Magnetfeld, das bis weit in den Raum hinausreicht. Seine Stärke beträgt ungefähr 10-4 Tesla.

In seinem Einflussbereich, der Magnetosphäre, dominiert das irdische Magnetfeld über das des Sonnenwinds. An seiner Grenze, der Magnetopause, prallen dessen Partikel und auch die der gefährlichen kosmischen Strahlung normalerweise weitgehend ab, da sie elektrisch geladen sind und ein eigenes Magnetfeld besitzen. Allerdings verformt sich der Schutzschirm durch den Druck des solaren Teilchenstroms zu einer kometenähnlichen Form. Auf der sonnenzugewandten Seite der Erde, der Tagseite, ist er eingedrückt und reicht nur rund 60 000 Kilometer in den Weltraum hinaus. Nimmt der Druck des Sonnenwindes zu, rückt die Grenze hier noch näher an die Erde heran, manchmal bis auf 26 000 Kilometer. Auf der abgewandten Seite, der Nachtseite, dagegen ist die Magnetosphäre über viele hundert Millionen Kilometer weit auseinander gezogen – ähnlich wie bei einem Kometen.

Der normalerweise einigermaßen zuverlässige Schutzschild der Magnetosphäre hat allerdings Löcher am magnetischen Nord- und Südpol – die nicht identisch sind mit den geographischen Polen -, wo die Feldlinien trichterförmig zusammenlaufen. Die enrgiereichen Teilchen des Sonnenwindes folgen diesen Feldlinien und treffen in 100 bis 200 Kilometer Höhe auf die Moleküle und Atome der oberen Erdatmosphäre, der Ionosphäre, wo sie schlagartig abgebremst werden. Dabei ionisieren sie die Stickstoff- und Sauerstoff-Atome, welche die aufgenommene Energie wieder als Fluoreszenz abgeben. Ergebnis ist das bunte Farbenspiel der Polarlichter.

Polarlichter signalisieren, so wunderschön das Schauspiel auch sein mag, Gefahr. Nur ein geringer Teil der eingeschleusten Energie ist nämlich tatsächlich als Polarlicht sichtbar. Die erdwärts flitzenden Elektronen erzeugen vor allem ein riesiges elektrisches Potential in der oberen Atmosphäre. Ein elektrischer Strom fließt parallel zur Erdoberfläche – etwa in derselben Region wie der Lichtvorhang, aber auch oft etwa ausgedehnter. Man nennt ihn den Aurora-Elektrojet; er entspricht einem Stromstoß von etlichen tausend Ampere. Bemannte Weltraumflüge machen daher einen großen Bogen um die Pole. Hier – und ebenso an einer weiteren Schwachstelle des irdischen Magnetfelds, dem Südatlantik – musste auch die Concorde ihre übliche Flughöhe von 15 Kilometern verlassen.

Durch Vorgänge im Gesteinsmantel der Erde kann das Magnetfeld stärker oder schwächer werden, manchmal schwankt es sogar innerhalb von Stunden. Schließlich können kleine Veränderungen sogar zum Abbau des irdischen Magnetfelds führen, bis es völlig verschwindet und erst einige tausend Jahre später mit umgekehrtem Vorzeichen wieder auftaucht. Die Wissenschaft spricht von einer Umpolung. Teilchen des Sonnenwindes und weitere kosmische Teilchen können in dieser Zeit viel tiefer als gewöhnlich in die Erdatmosphäre eindringen und magnetische Turbulenzen auslösen. Für Satelliten und die technische Infrastruktur gäbe es Probleme. Möglicherweise würde bei einem solchen Ereignis eine Strahlendosis auf uns einprasseln, wie sie heute nur Astronauten für kurze Zeit bei Weltraumspaziergängen zugemutet wird.

Allerdings haben die vielen Umpolungen im Laufe der Erdgeschichte offensichtlich keine sichtbaren Spuren in der belebten Natur hinterlassen. Untersuchungen unterstreichen, dass die irdischen Wechseljahre sogar recht undramatisch verliefen: keine genetischen Schäden, kein Massensterben, wie manche Wissenschaftler früher spekuliert hatten.

Obwohl die Stärke des Erdmagnetfelds vielerorts heute um etwa 10% abgenommen hat, ist derzeit eine Polumkehr – wie zuletzt vor rund 780 000 Jahren – nicht in Sicht. Selbst wenn der Geodynamo plötzlich stillstünde – was freilich nur auf dem Papier möglich ist -, wäre das Magnetfeld erst in 10 000 Jahren verschwunden.

Auch ohne Magnetfeld hält die rund 600 Kilometer dicke irdische Atmosphäre das Trommelfeuer der energiereichen Teilchen aus dem Kosmos vom Erdboden fern. Allerdings entstehen bei deren Kollision mit Molekülen der oberen Luftschichten (besonders Sauerstoff- und Stickstoffkernen) Kaskaden von Sekundärteilchen, die zu jeder Zeit in Unmengen vom Himmel regnen. Wir bemerken davon im Alltag nichts, doch bei empfindlichen Laborexperimenten schlägt sich der Partikelregen als ständiges Hintergrundrauschen nieder. Die Strahlenbelastung ist in ungefähr 25 Kilometern Höhe am stärksten. Hier kann der ionisierte Stickstoff Schäden in der Ozonschicht anrichten, wodurch die Lebewesen auf der Erde dann einer erhöhten Strahlendosis ausgesetzt sind.

10 bis 12 Kilometer über der Erde ist die Strahlenbelastung immer noch recht beachtlich. Auf einem Langstreckenflug von Europa in die USA und zurück bekommt man eine Strahlendosis ab, die der einer Röntgenaufnahme der Lunge entspricht. Auf der Erdoberfläche kommt im Schnitt nur noch ein Hundertstel davon an. Allerdings ist die Sekundärstrahlung, die am Boden auftrifft, nicht überall gleich stark: In mittleren Breiten ist sie dreimal so hoch wie am Äquator, wo die Luftschicht dicker ist; und auf hohen Bergen ist die Strahlendosis ebenfalls bis zu dreimal so groß wie im Flachland.

[Im durch den Sonnenwind in die Länge gezogenen Magnetschweif kommt es mehrfach täglich zu sogenannten Magnetischen Teilstürmen (Substorms), wobei vermehrt Teilchen in die Erdatmosphäre eingeschleust werden, die dann Polarlichter in mittleren Breiten erzeugen. Sie dauern ein bis drei Stunden und sind nichts Ungewöhnliches. Ursache sind offenbar Wechselwirkungen zwischen dem Magnetfeld, das der Sonnenwind mit sich führt, und dem Erdmagnetfeld. Gelegentlich können diese Substürme auch in rascher Folge auftreten. Hält ein Substurm länger an, wird die Hochatmosphäre aufgeheizt.]

Sonnenstürme

Während der absteigenden Phase des Sonnenzyklus und nahe dem Aktivitätsmaximum treten vermehrt geomagnetische Stürme auf. Es gibt eine schwächere Art, die auf Wechselwirkungen zwischen dem schnellen Sonnenwind aus den koronalen Löchern und dem langsameren aus der Äquatorregion der Sonne zurückgeht. Große geomagnetische Stürme, die bevorzugt um die Zeit des Aktivitätsmaximums der Sonne auftreten (das nächste Maximum ist für 2025 vorhergesagt), sind weit seltener.

Bis Anfang der 1990er Jahre galten Flares allgemein als Auslöser, nach neuen Hinweisen spielen vor allem koronale Massenauswürfe eine zentrale Rolle. Indes lösen nicht alle koronalen Massenauswürfe geomagnetische Stürme aus, denn die meisten zielen gar nicht Richtung Erde. Aber auch von denen, die auf uns gerichtet sind, ist nur jeder sechste stark genug, um einen Sturm zu entfachen. Dabei bewegt sich das ausgeworfene Plasma mit höherer Geschwindigkeit als der Sonnenwind, wodurch in diesem (wie auch im Frontbereich der Plasmaschwaden selbst) die Magnetfeldstärke ansteigt. Je nach Geschwindigkeit erreichen die Partikel des Sonnensturms bereits nach 12 bis 72 Stunden die Erde und drücken deren Magnetfeld noch tiefer als gewöhnlich zusammen.

Bei einem geomagnetischen Sturm, wie z. B. im März 1983, fällt während der Hauptphase die Magnetfeldstärke auf der Erdoberfläche unvermittelt um 300 Nanotesla ab. Das normalerweise gleichmäßig dichte Erdmagnetfeld kann sich so verformen, dass es auf der sonnenabgewandten Seite in Polnähe durchlässig wird, so dass die Erscheinung der Polarlichter auch in mittleren Breiten zu sehen ist (wie z. B. beim Halloween-Sturm im Oktober 2003). Mit dem Nachlassen des Sturms steigt die Magnetfeldstärke auf der Erdoberfläche wieder auf ihren ursprünglichen Wert an – normalerweise binnen weniger Tage, aber nach sehr heftigen Stürmen auch erst nach über einem Monat.

Im Spätsommer 1859 ereignete sich der bis dahin stärkste bekannte Sturm, das „Carrington-Ereignis“ (Carrington-Event). Damals konnten die Menschen in Rom, Havanna und auf Hawaii Polarlichter sehen. Magnetkompasse spielten verrückt – und in den Telegrafenleitungen wurden so hohe Spannungen induziert, dass sich Papierstreifen in den Empfängern entzündeten. Manche Menschen, die damit arbeiteten, erlitten einen Stromschlag. Würde sich ein derart kräftiger Sonnensturm heutzutage ereignen und auf die Erde treffen, hätte das verheerende Auswirkungen.

Strahlungsprobleme gehören bei Satelliten zur Tagesordnung. Partikel der kosmischen Strahlung lassen unter normalen Umständen bereits Solarzellen erodieren, so dass sie jährlich etwa 2% weniger Strom erzeugen. Ein Supersturm würde binnen weniger Stunden Schäden anrichten, die dem Verschleiß während mehrerer Jahre entsprechen würden. Im Januar 1997 ging in einem kosmischen Unwetter der Kommunikationssatellit Telstar 401 einer amerikanischen Telefongesellschaft verloren. Während des Halloween-Sturms 1983 schalteten sich etliche Satelliten automatisch ab. Seitdem funktioniert der japanische Satellit Madori 2 nicht mehr. Ein Supersturm bedeutet auch für Raumfahrer eine große Gefahr, denn Protonenschauer könnten Raumanzüge (z. B. bei Weltraumspaziergängen) und sogar die Wände der Internationalen Raumstation (ISS) durchdringen.

Unsere hochintegrierten Schaltkreise, das Fundament der neuen Technologie-Ära, reagieren sehr empfindlich auf Störungen. Unsere Elektrizitätswerke sind schon bei gutem Weltraumwetter fragile Gebilde. Durch Elektrojets ausgelöste Fluktuationen im Erdmagnetfeld induzieren Spannungsstöße und können Stromnetze und Elektronik lahm legen. Daher richten schon schwächere Magnetstürme, die alle paar Jahre wüten, erheblichen Schaden an.

Am 13. November 1960 verursachte ein Sonnensturm weltweite Störungen und ließ Radiosender ausfallen. Während des schweren geomagnetischen Sturms vom 13. März 1989 zerstörte ein Spannungsstoß einige Transformatoren und legte das Stromnetz des Hydro-Quebec-Kraftwerks lahm; große Teile Kanadas versanken neun Stunden lang in Dunkelheit.

Nach großen Sonnenstürmen könnten GPS- und Handy-Empfang nicht mehr funktionieren. Induzierte elektrische Ströme können Unterseekabel unbrauchbar machen, was den weltweiten Internetverkehr über Wochen oder gar Monate lahmlegte. Langfristig kann es zu Übertragungsstörungen bei Fernsehprogrammen und Telefonaten via Satellit kommen. Funkverkehr, Radaranlagen und Navigationssysteme könnten außer Kraft gesetzt werden. Vor allem der Flugverkehr, aber auch Schiffsverkehr, ist auf elektronische Komponenten angewiesen. Selbst bei der Eisenbahn wäre der Verkehrsablauf gefährdet: 1982 in Schweden schalteten sich bei einem Magnetsturm Signale um.

Schon heute richten Magnetstürme Millionenschäden an. Ein Sonnensturm der Carrington-Kategorie könnte die elektronische Stromstärke in den Verstärkern um mehr als den Faktor 100 erhöhen. Weil viele Komponenten des Stromnetzes ausgetauscht werden müssten, könnte der Strom Wochen oder Monate ausfallen. Allein den USA würden nach Schätzungen tägliche Verluste im Höhe von sieben Milliarden Dollar entstehen.

Fast unkalkulierbare Folgen hätte ein noch heftigerer Sturm, ein sogenanntes Miyake-Ereignis. Die japanische Forscherin Fusa Miyake hat Hinweise auf einen Teilchenschauer entdeckt, der sich etwa im Jahre 775 ereignete und rund 10- bis 100mal gewaltiger war als das Carrington-Ereignis. Er könnte das Ergebnis eines „Superflares“ gewesen sein. Ein solches Phänomen tritt wohl häufiger aus, als zunächst gedacht. So ereigneten sich ein Miyake-Ereignis auch vor 9177 und 7260 Jahren. Inzwischen sind neun der gigantischen Sonnenstürme bekannt; der bisher stärkste geschah vor 14 300 Jahren.

Würde ein solches Ereignis unsere Zivilisation treffen, wäre jahrelanges weltweites Chaos infolge monatelanger Stromausfälle und der Zerstörung eines großen Teils der Telekommunikations- und Navigationssysteme die Folge. Möglicherweise verlören wir alle Aufzeichnungen. Allerdings dürfte die Gefahr für uns, in absehbarer Zeit von einem Miyake-Ereignis in ein dunkles Zeitalter gestürzt zu werden, rein mathematisch eher gering sein. Bei einem Carrington-Ereignis geht man immerhin von einer Wahrscheinlichkeit von 1,6 bis zu 12% im Lauf der nächsten zehn Jahre aus.

Im Juni 2012 verfehlte uns ein großer Sonnensturm nur ganz knapp. Die Frage ist also nicht, ob ein solcher Sturm die Erde trifft, sondern lediglich wann – und ob wir darauf vorbereitet sind. Um den kosmischen Launen nicht hilflos ausgeliefert zu sein, ist dringend zur Vorsorge geraten. Durch eine frühzeitige Warnung könnten wir viele Schäden verhindern. Daher bedarf es einer permanenten Überwachung der Sonnenaktivität. Nach einer großen Sonneneruption dauert es gewöhnlich zwei bis vier Tage (bei einem koronalen Massenausbruch eventuell auch nur einen Tag), bis der Teilchenschauer die Erde erreicht. Diese Zeit sollte genügen, um schnellstens kritische Infrastruktur (z. B. gefährdete Leitungen) abzubauen und empfindliche Elektronikteile ab- bzw. auszuschalten. Empfehlenswert wäre es sogar, schon von vornherein empfindliche Bauteile wie Siliziumchips doppelt oder dreifach einzubauen. Kanadische Energieversorgungs-Unternehmen haben bereits viele Millionen Dollar für zusätzliche Sicherungen investiert.

REM

Das ZEIT-Rätsel

Die Zeit ist für uns wohl eines der rätselhaftesten Phänomene, sowohl im eigenen Erleben wie auch in Physik, Philosophie und Psychologie. Der Kirchenvater und Philosoph Aurelius Augustinus (354-430) schreibt im 11. Buch seiner autobiografischen „Bekenntnisse“ über das Wesen der Zeit: „Wenn mich niemand danach fragt, weiß ich es; will ich es einem Fragenden erklären, weiß ich es nicht.“ Der Philosoph Immanuel Kant (1724-1804) hielt Zeit (wie auch Raum) nur für eine angeborene Anschauungs- und Denkform.

Bei den alten Griechen war der Gott Chronos zuständig für die „objektive“, gleichmäßig und unerschütterlich dahinfließende Zeit, die sich mit Uhren messen lässt. Für die erlebte Zeit stand der Gott Kairos, der über die günstigen und falschen Momente, die Langeweile und das Überstürzen von Ereignissen herrscht. Das große Rätsel der Zeit bestand darin, wie diese beiden Zeitgötter sich versöhnen lassen. Auch wir unterscheiden heute die messbare, absolute Zeit von der subjektiven, erlebten Zeit. Ereignisse lassen sich durch die subjektive Komponente anders wahrnehmen als im objektiven Takt der physikalischen Zeit.

  1. Der physikalische Zeitbegriff

Zeit ist auf jeden Fall untrennbar mit Veränderung verbunden. Wo es keine Veränderung gibt, existiert auch keine Zeit, wo keine Zeit, auch keine Veränderung. Von Veränderung kann man aber nur sprechen, wenn es etwas gibt, was ich verändern lässt. Deshalb verlangt Zeit auch Raum.

Asymmetrie der Zeit

Wir sprechen davon, dass Zeit voranschreitet: Sie fließt vorwärts. Gegenwart trennt dabei Vergangenheit und Zukunft. Diese Asymmetrie zwischen vorwärts und rückwärts gerichteter Zeit bezeichnet man als Zeitpfeil, ein Begriff, der 1927 von dem Physiker Arthur Stanley Eddington geprägt wurde. Manchmal erörtert man verschiedene Aspekte dieser Asymmetrie („Superzeitpfeil“) getrennt und klassifiziert sie als je eigene Zeitpfeile, die überall nach vorne zeigen. Dazu gehören z. B. der thermodynamische Zeitpfeil, der der Zunahme der Entropie entspricht, und der kausale Zeitpfeil, bei dem es um das Aufeinanderfolgen von Ursache und Wirkung geht.

Warum diese Asymmetrie der Zeit besteht, gehört zu den größten Rätseln der Physik. Die meisten Wissenschaftler sind inzwischen überzeugt, dass sich die Entwicklungsrichtung der Zeit in unserem Universum unmittelbar auf die Existenz der einfachen Anfangs- und Rahmenbedingungen des Universums zurückführen lässt. Die Frage, was vorher war, ist danach sinnlos, da die Zeit vor dem Urknall noch nicht existierte. Erst danach läuft das Universum wie ein „Uhrwerk“ ab – mit einer eindeutigen Zeitrichtung, die festgelegt ist durch die Ausdehnung (Expansion) und die damit hervorgerufenen Ungleichgewichte. Allerdings geht man heute davon aus, dass auch ein kollabierendes Universum die Zeitrichtung beibehält.

Seit 13,82 Milliarden Jahren entwickelt sich die Materie durch Hinzufügung von Energie lokal hin zu immer neuen und vorübergehenden Ordnungszuständen höherer Entropie und Komplexität. Komplexe offene Systeme besitzen demnach also eigene, nicht umkehrbare Zeitpfeile, die eine Entwicklung zu mehr Ordnung und Information im globalen Strom der Entropiezunahme beschreiben.

Die Zeit endet, wenn die Struktur des Universums zerfällt. So gesehen ist ein Ende der Zeit kein größeres Paradoxon als der Zerfall eines jeden anderen komplexen Systems. Wie der menschliche Tod ist es kein Ereignis, sondern ein Prozess. Stück für Stück verliert die Zeit ihre Eigenschaften und taucht ein in die Dämmerung zwischen Existenz und Nichtexistenz. Als Erstes könnte der Zeitpfeil verschwinden, also die eindeutige Richtung der Zeit, die von der Vergangenheit in die Zukunft weist. Da er eine Eigenschaft der Materie ist, muss das Ende der Zeit mit dem Ende jeder Materie einhergehen, die in einem abstrakten Sinn als Uhr dienen könnte.

Historisch fassten die Physiker die Vorgänge im Universum kompakt zu physikalischen Gesetzen zusammen, in denen Zeit vorkommt. Sie dienten dazu, das Tempo von Bewegungen oder Veränderungen zu beschreiben – die Geschwindigkeit einer Lichtwelle, die Herzfrequenz oder die Rotation eines Planeten. Sie erlaubten uns, physikalische Systeme miteinander in Beziehung zu setzen, ohne dass wir genau herausfinden müssen, wie ein Gletscher mit einem Tennisball zusammenhängt. Doch diese bequeme Tatsache ist noch kein Beweis für die Idee, Zeit gehöre zur Grundausstattung des Universums. Denn diese Vorgänge könnten auch direkt aufeinander bezogen werden, ohne die Zeit zu bemühen.

In den physikalischen Gleichungen gibt es weder den gegenwärtigen Moment noch den Fluss der Zeit. Alle physikalischen Vorgänge – bis auf eine kleine Ausnahme in der Elementarteilchenphysik – werden im Einzelnen nach wie vor durch Gesetze beschrieben, die keine Zeitrichtung haben. Sie lassen also einen Prozess, der in eine Richtung abläuft, auch in umgekehrter Richtung ablaufen. In den Gleichungen ändert sich nur das Vorzeichen. Physiker sprechen in diesem Zusammenhang von Zeitumkehrvarianz.

Newtons dynamisches Grundprinzip beispielsweise sagt: Kraft ist Masse mal Beschleunigung. Letztere ist die zweite Ableitung des Wegs nach der Zeit t. Wenn man t durch -t ersetzt, ändert sich nichts an der Formel, denn minus mal minus ergibt plus. Darum ist die Newtonsche Physik invariant gegen Zeitumkehr. Das gilt aber nicht nur für Newtons Mechanik: Es gilt auch für Maxwells Gleichungen des Elektromagnetismus und ebenso für Einsteins Relativitätstheorie und die quantenmechanische Schrödinger-Gleichung.

Wir neigen dazu, die zeitlichen Gegebenheiten – Zeit und Zeitrichtung – für ebenso objektiv zu halten wie die räumlichen, etwa die Dreidimensionalität. Theoretiker aber wissen schon seit Jahrzehnten, dass der thermodynamische Zeitpfeil nicht so resolut in eine Richtung zeigt, wie wir das im Alltag wahrnehmen. „Wenn die anfänglichen Korrelationen stark genug sind, kann der Zeitpfeil in die umgekehrte Richtung zeigen“ sagt der Physiker Eric Lutz. für ihn ist klar: „Der Zeitpfeil ist nicht absolut, sondern relativ.“

Von der Theorie her ist es also nicht ausgeschlossen, dass es den umgekehrten Zeitpfeil in unserem Universum gibt. Wenn sie ausreichend isoliert sind, könnte es zeitversetzte Inseln im All geben. Ob es aber den umgekehrten Zeitpfeil wirklich gibt, müssen weitere Beobachtungen zeigen. Für die meisten Wissenschaftler scheint es nicht realistisch.

Newton

In den Bewegungsgesetzen Isaac Newtons besitzt die Zeit, obgleich das auf den ersten Blick nicht auffällt, viele spezielle Eigenschaften. Sie muss kontinuierlich sein, damit wir Geschwindigkeit und Beschleunigung definieren können. Sie muss auch eine Vorstellung von Dauer enthalten – physikalisch gesprochen eine Metrik -, damit wir angeben können, wie weit Ereignisse zeitlich auseinander liegen. Wie die Abfolge von Ereignissen ist die Dauer beobachterunabhängig.

Im Grunde unterstellt also Newton, die Welt sei eindeutig und objektiv in zeitliche Momente unterteilt, wobei der Zeitfluss in die Zukunft weist. „Die Zeit verfließt an sich und vermöge der Natur gleichförmig und ohne Beziehung auf irgendeinen Gegenstand.“ (Newton) Darum liefert die Zeit eine komplette Ordnung sämtlicher Geschehnisse im Universum. Unabhängig davon, wann und wo eine Ereignis eintritt, vermag man als klassischer Physiker anzugeben, ob es vor, nach oder gleichzeitig mit einem anderen Ereignis wo auch immer geschieht.

Die zahlreichen Eigenschaften von Newtons Zeit – Ordnung, Kontinuität, Dauer, Gleichzeitigkeit, Fluss und Zeitpfeil – sind logisch trennbar, doch sie alle vereinen sich zur Normaluhr, die Newton als „Zeit“ titulierte. Diese Kombination von Eigenschaften war so erfolgreich, dass sie fast zwei Jahrhunderte unbeschadet überlebte.

Im späten 19. und 20. Jahrhundert kamen die ersten Angriffe auf die Newton’sche Zeit. Den ersten führte der Physiker Ludwig Boltzmann. Er argumentierte: Da Newtons Gesetz in beide Zeitrichtungen gleich gut funktioniert, hat die Zeit keinen eingebauten Pfeil. Der Unterschied zwischen Vergangenheit und Zukunft ist keine Eigenschaft der Zeit selbst, sondern entsteht durch die asymmetrische Organisation der Materie im Universum. Vielleicht also existieren die Zeitpfeile tatsächlich nicht, sondern sind eine Täuschung.

Einstein

Den nächsten Angriff führte Albert Einstein. Die scheinbare Unvereinbarkeit von klassischer Mechanik und Elektromagnetismus veranlasste Einstein, die etablierten Konzepte von Zeit und Raum zu revolutionieren. Er stellte fest, dass Uneinheitlichkeiten verschwinden, wenn man die Annahme einer absoluten Zeit und eines absoluten Raums aufgibt. Dies war die Geburtsstunde der Speziellen Relativitätstheorie. Vor Einstein dachte man sich den Raum als eine Art Schuhkarton: Ein passives Gebilde, durch das die Zeit hindurchströmt. Einstein zeigte, dass die Zeit an dessen Wänden kleben bleiben kann und auf diese Weise an jedem anderen Ort der Welt anders ist. Bei ihm sind Zeit und Raum also gleichsam zu einer untrennbaren Einheit verschmolzen, zur abstrakten Raumzeit, deren Struktur durch die Verteilung der Materie bestimmt wird.

Die Raumzeit lässt sich als ein vierdimensionaler mathematischer Raum interpretieren, der die Zeitentwicklung der dreidimensionalen Welt repräsentiert – oder als mathematisches Modell einer vierdimensionalen Welt, in der die Zeit die vierte Dimension ist. Im Grunde ist die Zeit als vierte Dimension ja nichts weiter als ein Rechentrick der Physiker. Indem man die drei Raumkoordinaten und die Zeit zu einer vierdimensionalen Größe zusammenfasst, lassen sich manche Formeln auf elegante Weise vereinfachen. Es sind die Regeln der Logik und Mathematik, die uns helfen, erfolgreich im abstrakten Universum zu navigieren und zu weiterführenden Schlussfolgerungen zu kommen.

Doch selbst in der Allgemeinen Relativitätstheorie behält die Zeit eine eigene und wichtige Funktion: Sie unterscheidet lokal zwischen „zeitartigen“ und „raumartigen“ Richtungen. Zeitartig zusammenhängende Ereignisse können kausal verbunden sein; ein Objekt oder Signal kann von einem Ereignis zum anderen gelangen und beeinflussen, was geschieht. Raumartig zusammenhängende Ereignisse sind kausal unverbunden; kein Objekt oder Signal kann von einem Ereignis zu einem anderen gelangen. Mathematisch unterscheiden sich die beiden Richtungen nur durch ein Minuszeichen, doch physikalisch macht das einen gewaltigen Unterschied. Die Zeit bestimmt also immer noch die Reihenfolge von Ursache und Wirkung.

Zeit ist die Dimension (der „Zeitraum„), innerhalb derer sich alle Prozesse abspielen und die deshalb an allen Prozessen erlebt werden kann. Aber unter bestimmten Bedingungen könnte die Zeit selbst ihre elementare Ordnungseigenschaft verlieren und dadurch zu einer weiteren räumlichen Dimension werden. Das hätte allerdings zur Folge, dass der Zusammenhang von Ursache und Wirkung zusammenbrechen würde.

-Auswirkungen

Viele merkwürdige Phänomene beruhen auf den Grunderkenntnissen der Relativitätstheorie. So wird die Zeit umso stärker gedehnt, je schneller sich ein Beobachter relativ zu einem anderen bewegt – das heißt, die Zeit vergeht für ihn langsamer. Von außen betrachtet altert damit auch jeder, der vorbeifährt oder -fliegt, langsamer als jemand, der an einem Ort steht. Bei den Geschwindigkeiten, mit denen wir es im Alltag zu tun haben, sind die Unterschiede unerheblich. Erst je mehr sich Geschwindigkeiten der Lichtgeschwindigkeit nähern, werden sie relevant, desto mehr wird Zeit gedehnt (Zeitdilatation), werden aber auch Längen gestaucht (Längenkontraktion) und Massen vergrößert.

Für einen Reisenden in einem Raumschiff ist eine Reise zum Zentrum unseres Milchstraßensystems und zurück mit Lichtgeschwindigkeit (was nach der Allgemeinen Relativitätstheorie grundsätzlich möglich ist) dank der speziell-relativistischen Zeitdilatation theoretisch durchaus in 40 Jahren zu bewältigen – währenddessen sind auf der Erde aber ungefähr 56 000 Jahre vergangen. Dieses Synchronizitätsproblem dürfte den Aufbau einer interstellaren Zivilisation vor große Probleme stellen.

Gemäß der Relativitätstheorie gehen Uhren nicht nur bei schneller Bewegung, sondern auch in einem Gravitationsfeld, z. B. in der Nähe eines Massezentrums im Universum, langsamer. Gravitation verzerrt die Zeit derart, dass eine Sekunde hier nicht mehr unbedingt dasselbe bedeutet wie eine Sekunde dort. Das liegt daran, dass Lichtteilchen (Photonen) in der Nähe eines Massezentrums langsamer werden. Dennoch müssen sie aber auf den gleichen Wert, nämlich die Lichtgeschwindigkeit (ca. 300 000 km/s), kommen. Da Geschwindigkeit gleich Weg durch Zeit ist, muss bei verlangsamter Zeit der Weg entsprechend länger werden, damit das Diktat der Lichtgeschwindigkeit erfüllt ist.

Die Zeit verläuft umso schneller, je weiter wir vom Erdmittelpunkt entfernt sind, also auf den Bergen schneller als im Flachland. Auch die Uhren der GPS-Satelliten (GPS = Global Positioning System) laufen vor. Hier ist der gravitative Effekt immer noch stärker als der entgegengesetzt wirkende speziell-relativistische. Das GPS-System muss diesen Effekt einkalkulieren. Im Gegensatz dazu gehen die Uhren auf der Internationalen Raumstation (ISS) aufgrund verschiedener Effekte (z. B. der Eigenbewegung) gegenüber der Erde nach.

Der uns so vertraute Begriff der Gleichzeitigkeit verliert seine absolute Bedeutung. Was für einen Beobachter gleichzeitig erscheint, etwa zwei unabhängige Ereignisse am Sternenhimmel, ist für einen anderen Beobachter, der sich am selben Ort mit einer ganz anderen Geschwindigkeit bewegt, nicht unbedingt simultan. Dasselbe trifft auf Beobachter zu, die sich mit derselben Geschwindigkeit an unterschiedlich weit entfernten Orten im Universum befinden. Sie nehmen gleichzeitige Ereignisse aufgrund der konstanten Lichtgeschwindigkeit nacheinander wahr.

[Ähnlich wie Einstein in der Physik befasste sich Pablo Picasso in der Malerei mit der Gleichzeitigkeit. Er schuf am Pariser Montmartre ein Werk, das heute als Initialzündung für den Kubismus gilt. In dem Gemälde „Les Demoiselles d’Avignon“ gab er die Zentralperspektive auf, die bis dahin als eine der bedeutendsten Errungenschaften der Renaissance unantastbar schien. Nach monatelangem Ringen um die Form entschloss sich Picasso, die fünf Frauen auf diesem Bild aus mehreren Perspektiven gleichzeitig darzustellen.]

Es hängt also vom Bezugssystem (Inertialsystem) des Beobachters ab, ob räumlich getrennte Ereignisse gleichzeitig sind oder nicht. Ein objektives, beobachterunabhängiges Ereignis gibt es nicht, zumindest nicht, was die Beschreibung von dessen Ort und Zeit im Raum betrifft. Aber die Aussagen über eine bestimmte Kombination von Raum und Zeit stimmen überein, das heißt, der raumzeitliche Abstand zweier Ereignisse ist davon unabhängig. Somit sehen die Beobachter Raum und Zeit, jeweils für sich betrachtet, unterschiedlich – doch sie sehen dieselbe Raumzeit. Nur die vierdimensionale Raumzeit hat eine vom Bewegungszustand des Beobachters unabhängige, absolute Bedeutung – Raum und Zeit für sich sind relativ.

Die Relativitätstheorien sind weit weg von unserer Alltagserfahrung und deshalb für den normalen Menschen schwer zu verstehen. Sie lehren uns, dass wir mit den Begriffen von Raum und Zeit Eigenschaften verbinden müssen, die uns in dem Bereich der Phänomene, die wir durch die Klassische Physik beschreiben können, verborgen bleiben. Im Alltag empfinden wir die Zeit normalerweise nicht als vierte Dimension; wir glauben, sie fließe konstant. Für den Gebrauch im normalen Leben, für unsere Handhabung der Zeit, ist das auch mehr oder weniger richtig.

Blockuniversum

Einsteins Vorstellung, die vierdimensionale Realität, wird als Blockuniversum (Raumzeit-Block) bezeichnet, ein Begriff, der auf den Psychologen und Philosophen William James zurückgeht. In diesem Gebilde ist alles vom Anfang bis zum Ende der Zeit enthalten. „Für uns gläubige Physiker“, schrieb Einstein einige Wochen vor seinem Tod, „hat die Scheidung zwischen Vergangenheit, Gegenwart und Zukunft nur eine Bedeutung einer wenn auch hartnäckigen Illusion.“

Die Zeit ist demnach nur eine Achse unter vielen in höherdimensionalen Räumen, entlang der sich unser Bewusstsein entwickelt. Bei Bewegung mit annähernder Lichtgeschwindigkeit oder in der Nähe sehr großer Massen verbindet sich Zeit untrennbar mit den drei Raumdimensionen. So vergeht bei Lichtgeschwindigkeit oder am Rand eines Schwarzen Lochs quasi überhaupt keine Zeit: Sie steht still! (Dies wurde durch Messungen bestätigt.) Das Block-Universum der Raumzeit ist praktisch zeitlos oder ewig.

Die Konsequenz von Einsteins Relativitätstheorie – oder genauer: ihre philosophischen Deutung – stellt eine radikale Revolution unseres Weltbildes dar. Zu erkennen, dass es die Zeit objektiv überhaupt nicht gibt, ist eine große intellektuelle Herausforderung. Vielleicht sollte die Zeit wirklich als etwas experimentell Mathematisches betrachten werden, ein Weg zum Messen und Vergleichen der durch die Grundkräfte der Physik getriebenen Fortentwicklung von Materie und Feldern. Würde die Welt, und mit ihr unsere Uhren, „langsamer ticken“, wir hätten keine Möglichkeit, dies zu bemerken. Wenn man aber etwas gründlicher über diese zeitlose und vorbestimmte Sicht der Wirklichkeit nachdenkt, beginnt man meist, die daraus resultierenden Folgen in Frage zu stellen.

Möchte man das Konzept der Zeit besser verstehen, sollte man auch die Quantenmechanik nicht außer Acht lassen.

Quantenmechanik

Quantenmechanik und Relativitätstheorie haben verschiedene Auffassungen von Zeit. In der Quantenmechanik ist die Zeit starr – nicht biegsam – und nicht mit den Dimensionen des Raums verflochten wie in der Relativitätstheorie. Gemäß Einsteins Gleichungen konnte man alle physikalischen Ereignisse wie einen Film rückwärts laufen lassen. In der Quantenmechanik ist das jedoch nicht möglich. Vergangene Ereignisse werden durch Messung unumkehrbar von künftigen getrennt, denn überlagerte Zustände eines Teilchens kollabieren durch eine Messung an einem festen Zeitpunkt zu einem eindeutigen Quantenzustand. Auf mikroskopischer Ebene kommt es so zu einer unumkehrbaren Veränderung, welche die Vergangenheit eindeutig von der Zukunft trennt. Was wir gemeinhin als „Zeit“ verstehen, erwächst also originär aus nichts anderem als der Prozessdauer von miteinander in Wechselwirkung stehenden Elementarteilchen.

Diese grundlegend unterschiedliche Rolle der Zeit in der Quantenmechanik und in der Relativitätstheorie hat bereits etliche Physiker verwirrt. In den verschiedensten Ansätzen wird die Frage nach der Zeit heute heftig diskutiert, allerdings bisher erst auf einer sehr formalen Ebene. Viele nehmen die Unstimmigkeiten in den beiden großen Theorien hin und hoffen, eine vereinheitlichte Theorie der größten und kleinsten Skalen, eine sogenannte Quantengravitationstheorie, werde den Widerspruch aus der Welt schaffen.

Nach Meinung des Physikers Nicolas Gisin verwenden Forscher schlicht die falsche Sprache, um die Gegenwart und die Zeit im Allgemeinen zu beschreiben. Indem man die Physik in einer anderen mathematischen Sprache, nämlich in intuitionistischer Form, ausdrückt, wie es Gisin mit der klassischen Mechanik bereits getan hat, könnte man das Rätsel der Zeit lösen. Gleichzeitig wäre dadurch die klassische Mechanik der Quantenmechanik ähnlicher, als wir bisher angenommen haben.

In der sogenannten intuitionistischen Mathematik existieren keine Zahlen mit unendlich vielen Ziffern. Zahlen entfalten sich erst nach und nach. Beschreibt man mit diesem neuartigen Bild, wie sich physikalische Systeme entwickeln, beginnt die Zeit laut Gisin wirklich zu fließen. Der strenge Determinismus, der aus Einsteins Gleichungen folgt, weicht im neuen Formalismus einer quantenähnlichen Unvorhersagbarkeit. Wenn alle Zahlen endlich und damit in ihrer Genauigkeit begrenzt sind, dann ist die Natur selbst zwangsläufig ungenau – und unberechenbar.

[Neben der Idee einer kreativen (und möglicherweise destruktiven) Zeit bietet der Intuitionismus eine neuartige Interpretation unserer bewussten Zeiterfahrung. Das Kontinuum ist im intuitionistischen Bild klebrig, es lässt sich nicht eindeutig in zwei Hälften zerschneiden. Gisin assoziiert das mit dem Gefühl, die Gegenwart entspräche einem substanziellen Moment statt einem hauchdünnen Augenblick, der die Vergangenheit sauber von der Zukunft trennt. Denn in der gewöhnlichen Physik, die auf der Standardmathematik basiert, ist die Zeit ein kontinuierlicher Parameter.]

Quantengravitation

Die Lösung des Problems der unterschiedlichen Interpretation der Zeit in Relativitätstheorie und Quantentheorie liege nicht außerhalb der Reichweite der Physik, erklärt der Physiker Gary Horowitz. „Die Quantengravitation sollte in der Lage sein, uns eine definitive Antwort zu liefern.“ So könnte sogar ein fehlerhaftes Konzept der Zeit (nämlich ihre zentrale Rolle in der Quantenmechanik) selbst der tiefere Grund sein für die derzeitigen Probleme, Relativitätstheorie und Quantenmechanik zu vereinen.

Einige Quantengravitationsforscher glauben (wie schon Aristoteles), dass die Zeit weder Anfang noch Ende hat, sondern sich in alle Ewigkeit erstreckt. „Es ist logisch nicht möglich, dass die Zeit eine Ende hat“, behauptet der Philosoph Richard Swinburne. Wer wie er annimmt, dass die Zeit ewig weitergeht, muss zwar keine neue Physik erfinden, hat dafür aber andere Probleme: So nimmt die Ordnung in unserem Universum im Verlauf der Zeit immer weiter ab. Einige Physiker spekulieren, dass sich der Pfeil der Zeit irgendwann aber umkehren könnte, das Universum also langsam wieder ordentlicher würde. Ihrer Ansicht nach war der Urknall lediglich ein dramatischer Übergang im ewigen Leben des Universums.

Vielleicht ist die Raumzeit aber quantisiert wie die Energie, die nur „portionsweise“ übertragen werden kann. Auf der Planck-Skala*, der allerkleinsten Skala, sind Raum und Zeit tatsächlich nicht mehr kontinuierlich, wie die Klassische Physik von Newton bis Einstein immer lehrte, sondern quantisiert. Auch die Zeit würde also auf dieser Skala unscharf und nicht weiter unterteilbar und sollte sich gleichsam auflösen.

*Die kleinste Zeiteinheit (Planck-Zeit) ist ein theoretisches Konstrukt aus der Division der Planck-Länge durch die Lichtgeschwindigkeit; sie beträgt 5,391 x 10-44 Sekunden. Da die Planck-Zeit außerordentlich klein ist, ist sie für die Alltagswelt sowie selbst für die moderne Kurzzeit-Physik praktisch bedeutungslos. Wenn es aber diese kürzeste Zeitspanne gibt, würde die Zeit „ruckartig“ vergehen, sie wäre gleichsam atomar. Solche Zeitatome, über die schon der Philosoph Friedrich Nietzsche spekuliert hatte, werden bisweilen Chrononen genannt.

Eine gequantelte Raumzeit markiert streng genommen auch ein Ende der Zeit – oder zumindest unsere Vorstellung von ihr. Als John Wheeler und Bryce DeWitt versuchten, die Methoden zur Entwicklung der Quantentheorie des Elektromagnetismus auf die Gravitation anzuwenden, erhielten sie ein höchst seltsames Resultat. In ihrer (Wheeler-DeWitt-)Gleichung kam überhaupt keine Zeitvariable vor. Das Zeitsymbol t war einfach verschwunden. Die Zeit taucht also, im Gegensatz zum Raum, gar nicht mehr auf – sie kann folglich auch keine fundamentale Größe sein. Veränderungen lassen sich auch ohne sie quantifizieren. Wenn man das Resultat wörtlich nimmt, existiert also die Zeit nicht wirklich.

Auch für Wissenschaftler wie Roger Penrose und Stephen Hawking hat die Zeit in einer wahrhaft grundlegenden Theorie der Physik keinen Platz. Sie halten die Zeit nur für eine gemeinsame Währung, welche die Beschreibung der Welt erleichtert, aber nicht eigenständig existiert. Sie ist eine bequeme Fiktion, die in der Natur genauso wenig fundamental existiert wie Geld. So gesehen hat die Zeit für das Messen von Vorgängen denselben Vorteil wie das Geld im Vergleich zum umständlichen Naturalientausch.

Die Zeit loszuwerden hat aber auch unangenehme Nebenwirkungen. Jeder, der für die zeitlose Quantengravitation eintritt, muss unbedingt erklären, warum die Welt veränderlich erscheint. In der Allgemeinen Relativitätstheorie fehlt die Newton’sche Zeit, aber zumindest enthält sie verschiedene Ersatzkomponenten, die sich zusammen wie die Newton’sche Zeit verhalten – sofern die Gravitation schwach ist und die Relativgeschwindigkeiten gering bleiben. Die Wheeler-DeWitt-Gleichung bietet nicht einmal dieses Surrogat.

Aber selbst wenn die Welt zeitlos ist, scheint sie doch Zeit zu enthalten. Diese könnte auf höheren Ebenen entstehen, so wie ein Tisch sich fest anfühlt, obwohl er ein Teilchenschwarm ist, der größtenteils leeren Raum umfasst. Festigkeit ist eine kollektive oder emergente Eigenschaft* der Teilchen. So kann auch die Zeit eine emergente Eigenschaft der grundlegenden Bestandteile der Welt sein.

*Emergenz (von lateinisch emergere = auftauchen, emporkommen) meint, dass das Gesamtverhalten eines Systems Eigenschaften und Verhaltensweisen zeigt, die nicht mit denjenigen der isolierten Systemelemente identisch sind. Ein klassisches Beispiel bietet die statistische Dynamik: Aus der Bewegung vieler Gasatome „emergiert“ das makroskopische Verhalten des Gases. Es wird durch Größen wie Druck und Temperatur beschrieben, die für einzelne Gasatome keinen Sinn haben, sondern erst für das statistische Verhalten großer Teilchenmengen.

Eine emergente Zeit könnte aus elementaren zeitlosen Bestandteilen entstehen, die sich selbst in eine Ordnung bringen. Sie strukturiert die Welt und sagt uns, wann, wie lange und in welcher Reihenfolge Ereignisse stattfinden. Vielleicht wurde die Struktur also dem Universum nicht von außen aufgezwungen, sondern entstand von innen.

Die kanonische Quantengravitation bietet bereits eine weiterentwickelte Idee. Der Vorschlag geht auf einen Artikel von 1931 zurück, in dem der Physiker Nevill F. Mott die Kollision eines Helium-Atoms mit einem größeren Atom beschrieb. Um das Gesamtsystem darzustellen, nutzte Mott eine Gleichung für statische Systeme, in der die Zeit fehlte. Er teilte das System in Subsysteme und verwendete den Heliumkern als „Uhr“ für das Atom. Erstaunlicherweise gehorcht das Atom relativ zum Kern der üblichen zeitabhängigen Gleichung der Quantenmechanik, wobei eine räumliche Funktion die Rolle der Zeit spielt. Obwohl das System insgesamt zeitlos ist, verhalten sich die einzelnen Teile nicht statisch. In der zeitlosen Gleichung für das Gesamtsystem verbirgt sich eine Zeit für das Subsystem. Vielleicht existiert also die Zeit nur, wenn wir die Welt in Subsysteme unterteilen und betrachten, was sie verbindet. Das Universum mag also zeitlos sein, aber wenn man es gedanklich in Stücke bricht, können manche Stücke als Uhren für die anderen dienen. Aus Zeitlosigkeit geht dann Zeit hervor.

Die Physiker Carlo Rovelli und Julian Barbour haben versucht, die Quantenmechanik auf zeitlose Weise umzuformulieren. Nach der Theorie, der Schleifen-Quantengravitation, entsteht die Raumzeit erst aus Spin-Netzwerken, einem Gewebe eindimensionaler Strukturen. Deshalb ist Zeit kein Fundament der Natur, sondern ein nachgeordnetes Produkt – letztlich also tatsächlich illusorisch. Rovelli schrieb 2004: Die Existenz der Zeit ist das Resultat unseres Unwissen, unserer Unkenntnis des Mikrozustands. „‚Raum‘ und ‚Zeit‘ werden nur innerhalb gewisser Näherungen sinnvoll bleiben – so wie der Begriff ‚Wasseroberfläche‘ seine Bedeutung verliert, wenn wir auf die Atome des Wassers im Detail schauen. Sieht man genau genug hin, gibt es so etwas wie eine Wasseroberfläche gar nicht.“ Ganz ähnlich verhält es sich mit Zeit und Raum. „Es sind nur makroskopische Näherungen – Illusionen, die unser Bewusstsein geschaffen hat, um Realität zu verstehen.“

Der Theoretiker Lee Smolin will der Zeit aber wieder zur Anerkennung als echtes physikalisches Phänomen verhelfen: „Nichts, was wir kennen oder erleben, kommt dem Herzen der Natur näher als die Wirklichkeit der Zeit.“ Er will uns zurückholen in die Welt – und zurück in die Zeit. Nicht die Zeit sei eine Illusion, sondern die abstrakte, statische Raumzeit, in der der Raum mit der Zeit verschmolzen ist. Für Smolin wird sich der Raum einmal als eine Art makroskopische (emergente) Eigenschaft erweisen, die aus mikroskopischen Phänomenen resultiere ähnlich wie Temperatur und Druck.

Smolin glaubt an einen Vorrang des Werdens über das Sein und des Prozesses über die Strukturen. Er skizziert also die Grundzüge einer fundamentalen Theorie jenseits der Quantenmechanik, in der die Zeit die Grundgröße ist: Alles ist in Bewegung. Neues entsteht in einer beständigen Evolution. Sogar die Naturgesetze sind veränderlich. Smolin sieht sich mit seiner Vermutung einer alles dominierenden Zeit in der Tradition von Philosophen wie Heraklit, Hegel, Bergson und Whitehead und bezieht damit eine klare Gegenposition zu Newton oder Einstein, die die Welt von ewig geltenden Naturgesetzen beherrscht sahen. Es bleibt die Frage, wie Smolin selbst zugibt, ob tatsächlich ein Metagesetz existiert, das die zeitliche Entwicklung der Naturgesetze vorgibt.

Fazit

Unsere Unfähigkeit, über die Zeit einen Konsens zu erreichen, könnte die Folge davon sein, dass wir noch nicht den notwendigen wissenschaftlichen Fortschritt erzielt haben. Vielleicht sind wir genötigt, eine neue Physik zu erfinden und physikalische Gesetze ganz neuer Art zu präsentieren. Auf der anderen Seite: Kann sich das Rätsel Zeit überhaupt je einem Gehirn erschließen, das ja eben in der Zeit entstanden ist?

REM