Dunkle Energie

Um manche irritierenden astronomischen Daten zu erklären, musste neben der Dunklen Materie und der „kosmischen Inflation“ auch die Dunkle Energie eingeführt werden.

2. Dunkle Energie

Messungen der kosmischen Hintergrundstrahlung und präzise Beobachtungen von Supernovae in fernen Galaxien haben deutliche Hinweise auf eine systematische Abweichung vom Hubble’schen Gesetz erbracht, demzufolge je zwei Galaxien mit einer Geschwindigkeit auseinanderfliegen, die proportional zu ihrem gegenseitigen Abstand ist: So sehen ferne Sternexplosionen mit gegebener Rotverschiebung schwächer aus als erwartet, müssen also weiter entfernt sein. Außerdem haben Röntgendaten ergeben, dass die Entstehung der Galaxienhaufen im Laufe der Zeit immer schleppender vorangegangen ist. Die Beobachtungen deuten auf eine mit der Zeit schnellere Expansion des Universums hin.

Im Moment haben Theoretiker noch die unterschiedlichsten konkurrierenden Vorstellungen, welche Kraft die schnell wachsende Ausdehnung des Weltraums antreiben könnte. Es existieren zwei grundlegend verschiedene Erklärungsansätze: Der erste geht davon aus, wir verstünden die Gesetze der Schwerkraft noch nicht richtig. Vielleicht ändert sie bei sehr großen Entfernungen ihren Charakter und wirkt schließlich sogar abstoßend. (siehe unten)

Die zweite Idee postuliert die Existenz von einer bislang unbekannten, unsichtbaren Substanz, die der Gravitation entgegenwirkt, also eine abstoßende Kraft ausübt, und die Hubble-Expansion allmählich beschleunigt. Sie steht für den fehlenden Wert der Materiedichte (von sichtbarer und Dunkler Materie), die nach den Beobachtungen von Supernovae und Galaxienhaufen lediglich einem Wert (Omega) von 0,3 entspricht. Nach den gemessenen Werten der euklidischen Geometrie ist unser Universum aber „flach„, d. h. die gesamte Masse- und Energiedichte erreicht im Rahmen der Messgenauigkeit den kritischen Wert 1. Es muss also neben der Materiedichte eine weitere Komponente geben, die für das Defizit steht.

Diese Energiedichte, von deren Existenz die meisten Wissenschaftler überzeugt sind, hat merkwürdige Eigenschaften: Sie krümmt den Raum ganz ähnlich, wie es Materie tut, aber zugleich übt sie einen negativen Druck aus. Sie stellt also eine Kraft dar, die zusätzlich zum Urknall das Universum auseinander treibt und so die kosmische Expansion quasi ständig nachbeschleunigt. Man kann sie aber nicht als Gravitation mit umgekehrtem Vorzeichen betrachten, denn anders als die Gravitation nimmt diese Kraft mit der Entfernung zu. Es ist also eine „frei im Raum schwebende“ Kraft, eher der expandierende Raum selbst, wobei der ferne Raum stärker betroffen ist als der nahe.

Diese ominöse Kraft soll also den fehlenden weitaus größten Teil der kritischen Dichte (ca. 70% der Masse und Energie des Universums) liefern. Unser Universum wäre demnach nicht von Materie, sondern dieser abstoßenden Kraft dominiert. Für sie hat sich der Name „Dunkle Energie“ eingebürgert – eine unglückliche Bezeichnung, denn seit Einstein wissen wir, dass Materie und Energie eigentlich dasselbe sind; Dunkle Materie und Dunkle Energie haben aber nichts miteinander zu tun haben.

Ohne den antigravitativen Effekt dieser Kraft würde sich der Weltraum heute halb so schnell ausdehnen. Viele Galaxien wären schon verschmolzen und das Universum enthielte viel mehr massereiche Galaxien mit Populationen alter Sterne. Massearme Galaxien wären hingegen seltener, genauso Spiralgalaxien wie unser Milchstraßensystem, denn die vermehrten galaktischen Kollisionen hätten die Spiralgalaxien zerstört. Die Milchstraße wäre vielleicht schon mit dem Andromedanebel verschmolzen – ein Prozess, der tatsächlich erst in zwei Milliarden Jahren beginnt – und beide Galaxien würden in den Virgo-Haufen eindringen (was aber niemals geschehen wird).

Was die Dunkle Energie für Kosmologen so attraktiv macht, ist ihre Dynamik. Es gibt gute Gründe für die Annahme, dass sich die Expansion des Universums nicht immer beschleunigt hat. Wenn ihre Dichte, wie es scheint, immer konstant geblieben ist, war ihr prozentualer Anteil an der Gesamtdichte kurz nach dem Urknall wegen der stärkeren Gravitationsanziehung der damals enger beieinander liegenden Materieregionen verschwindend gering. Die Gravitation wirkte also in der Frühzeit des Universums der Expansion noch recht effektiv entgegen und ließ die großräumigen, filamentartigen Strukturen im Universum entstehen. Sie führte auch zur Bildung gravitativ gebundener Objekte – von Galaxien bis zu gewaltigen Galaxienhaufen. (Wäre die kosmische Expansion dagegen immer beschleunigt verlaufen, hätte sie das Entstehen dieser Strukturen schon von vorneherein verhindert.)

Die Dichte der Dunklen Materie nahm fortan durch die Raumexpansion zunehmend ab, diejenige der Dunklen Energie blieb dagegen – jedenfalls nach dem Standardmodell – immer konstant, da in dem durch die Expansion frisch geformten Raum neue Dunkle Energie entsteht. Ihre Gesamtmenge wuchs also im Verhältnis zur Dunklen Materie. Ab einer gewissen Ausdehnung des Alls war die Materie so stark ausgedünnt, dass dann die von der Entfernung unabhängige, gravitativ abstoßende Kraft allmählich die Gravitationsanziehung überwand und damit die Beschleunigung der Expansion über die Schwerkraft die Oberhand gewann.

Heute geht man davon aus, dass unser Universum seit etwa sechs Milliarden Jahren beschleunigt expandiert. Die Galaxienhaufen hatten damals bereits ihre heutige Masse erreicht. Die weitere Strukturbildung wurde auf großer Skala gestoppt und sie wuchsen seither kaum noch weiter an. Die hauptsächlich von der Dunklen Energie angetriebene Expansion aber beschert dem Universum eine unendliche Zukunft.

Die Natur der Dunklen Energie

Wie schon erwähnt, handelt sich bei der Dunklen Energie um ein diffuses, über den gesamten Raum verteiltes, niedrigenergetisches Phänomen. Ihre Dichte beträgt überall nur 10-26 kg/m2. Die in unserem Sonnensystem enthaltene Dunkle Energie entspricht dabei höchstens der Masse eines kleinen Asteroiden. Spürbare Auswirkungen hat sie hier nicht – diese sind erst auf viel größeren Strecken und langen Zeitspannen erkennbar.

Das Rätsel, um was es sich physikalisch bei der neuen Energieform eigentlich handelt, ist aber noch lange nicht gelöst. Die einfachste Erklärung für die Dunkle Energie – und sogar die einzige im Rahmen der etablierten Physik (dem Lambda-CDM-Modell) – ist die bereits 1917 von Albert Einstein in die Allgemeine Relativitätstheorie und Kosmologie eingeführte Kosmologische Konstante, abgekürzt mit dem griechischen Buchstaben Lambda. Physikalisch lässt sich Lambda als Eigenschaft der Raumzeit interpretieren. Der Name „Kosmologische Konstante“ deutet schon darauf hin, dass ihr Wert überall der gleiche ist und sich über Raum und Zeit hinweg nicht ändert.

Wie die meisten Astronomen um 1915 hielt Einstein damals das Universum für statisch – gleichförmig, unendlich und unveränderlich. Aber er konnte die Lösungen der Allgemeinen Relativitätstheorie drehen und wenden, wie er wollte, es kam partout kein statisches Universum heraus. So fügte er seinen Gleichungen einen Zusatzterm („eine nahe liegende, mit dem Relativitätspostulat vereinbare Erweiterung“) ein, der wie eine Anti-Schwerkraft wirkte: die Kosmologische Konstante (Lambda). Sie ergibt bei geeigneter Wahl genau die Abstoßung.

Fünf Jahre später, als sich gezeigt hatte, dass die Kosmologische Konstante kein wirklich stabiles Universum herbeiführen konnte und sich vor allem das Bild vom expandierenden Kosmos durchgesetzt hatte, verwarf er die Kosmologische Konstante wieder. Er soll dem amerikanischen Astrophysiker George Gamow gegenüber ihre Einführung als „die größte Eselei seines Lebens“ bezeichnet haben. Die Physiker jedenfalls waren froh, auf diesen ungeliebten Zusatzterm verzichten zu können. Seither wurde Lambda von den meisten Astronomen kurzerhand gleich Null gesetzt. Einfach streichen ließ sie sich aber nicht, weil sie bei einer strengen Herleitung der einsteinschen Feldgleichungen aus physikalischen Grundprinzipien folgt, wie später erkannt wurde.

Heute sind die meisten Astrophysiker überzeugt, dass die Beschleunigung der Expansion des Universums durch eine positive Kosmologische Konstante verursacht wird, die in kosmischem Maßstab wie eine Art Anti-Schwerkraft wirkt. Sie kann heute in der Teilchenphysik als eine Eigenschaft des Vakuums – physikalisch ausgedrückt: Energiedichte des Vakuums – betrachtet werden. Diese mysteriöse Vakuumenergie ist ein besonders eleganter und daher von vielen Physikern bevorzugter Kandidat für die Dunkle Energie. Es handelt sich dabei letztlich um die Energie von Quantenteilchen, die quasi aus dem Nichts entstehen und blitzschnell wieder zerfallen. Ihre Allgegenwart im Universum könnte letztlich für dessen beschleunigte Expansion verantwortlich sein.

Das Vakuum müsste dann eine negative Energie und negative Dichte haben. Anders als Masse kann Energie auch einen negativen Druck ausüben, der statt zu einer anziehenden zu einer abstoßenden Kraft wird. (Auch elastische Gegenstände – z. B. ein Gummituch – haben einen negativen, d. h. nach innen gerichteten Druck. ) Zumindest hypothetisch könnte damit der leere Raum das Universum auseinandertreiben. Allerdings verhält sich die Vakuumenergie gar nicht wie eine Konstante! Als unser Universum in seiner Frühphase während der Expansion abkühlte, veränderten sich auch die Felder und Quantenfelder, die es erfüllten: Sie machten einen Phasenübergang durch (ähnlich wie gefrierendes Wasser oder kondensierender Dampf) und damit auch die mit ihnen verbundene Vakuumenergie.

Hinzu kommt ein weiteres Problem: Die Dunkle Energie ist eine Substanz, die noch nie direkt gemessen wurde. Die Standardtheorie der Elementarteilchen kann zwar eine solche Energie erklären, liefert aber für ihre Größe einen um den Faktor 10120 zu hohen Wert im Vergleich zu den astronomischen Messwerten – ein eklatanter Widerspruch zwischen Theorie und Experiment. Es ist wohl die größte Unstimmigkeit in der gesamten Physik und lässt sich beim besten Willen nicht erklären. Zu diesem Problem gesellen sich weitere unbehaglich erscheinende Zufälle.

Daher stellt die Dunkle Energie eines der grundlegenden Probleme der modernen Physik dar, vielleicht sogar das wichtigste Problem. Möglicherweise ist aber hier auch etwas völlig unverstanden in der Physik. Obwohl die Dunkle Energie eine Säule des heutigen Standardmodells der Kosmologie darstellt, werden vermutlich neuartige physikalische Theorien nötig sein, um ihr Wesen zu deuten.

Alternativen

Es könnte sein, dass die Dunkle Energie gar nichts mit der Energie des Quantenvakuums zu tun hat. Sie könnte auch eine Täuschung wahrhaft kosmischen Ausmaßes sein. Theoretiker haben vielerlei Vorschläge gemacht, was denn sonst die Expansion beschleunigen könnte. Das Spektrum reicht von Energiefeldern (sogenannten Skalarfeldern), die man als eine bisher unbekannte Teilchenart deuten könnte, über höhere Raumdimensionen (ein Effekt der spekulativen Stringtheorie) bis zu gänzlich neuen Gravitationstheorien.

Manche Theoretiker machen Energiefelder verantwortlich, die Bruchteile von Sekunden nach dem Urknall entstanden sein könnten und den gesamten Kosmos erfüllen. Diese könnten jeden Punkt des Universums mit einer Eigenschaft versehen, die der anziehenden Gravitation entgegenwirkt. Paul M. Steinhardt, einer der Hauptverfechter dieser Hypothese, nennt diese neue Art von Energie augenzwinkernd „Quintessenz„, nach dem Namen, den Aristoteles in seiner Naturphilosophie vor über 2300 Jahren für den von ihm vermuteten alles durchdringenden Äther prägte, und den er für das feinste und wichtigste Element (neben Erde, Wasser, Luft und Feuer) hielt. Kurioserweise hat Einstein Lambda als den „neuen Äther der Relativitätstheorie“ bezeichnet.

Allerdings ist die Annahme der Theoretiker, dass das Minimum der potenziellen Energie des Feldes sehr niedrig liege und daher nur eine sehr kleine Menge Dunkler Energie über das Universum verteilt sei (was zu den Beobachtungen passen würde), im Rahmen der Theorie recht willkürlich. Außerdem darf die Dunkle Energie in diesen Modellen – abgesehen von ihrer abstoßenden Wirkung – mit allen anderen Bestandteilen des Universums nur sehr wenig wechselwirken, was ebenfalls schwer zu erklären ist.

Noch bizarrer ist die Idee, dass eine „Phantomenergie“ hinter der Dunklen Materie steckt. Sie hat die katastrophale Eigenschaft, dass sie den Weltraum künftig regelrecht zerreißt, da die Ausdehnungsrate mit der Zeit unendlich werden würde. Auch eine Doppelwirkung von Quintessenz und Phantomenergie halten manche Theoretiker für denkbar.

Eine andere Theorie beschreibt die Dunkle Energie durch das CGC-Modell (CGC = „generalisiertes Chaplygin-Gas“), dessen grundlegende Gleichung auf den russischen Physiker und Mathematiker Sergej Chaplygin zurückgeht. Das Modell kommt ohne die Annahme von unbekannten Feldern aus und stimmt mit den Messdaten überein. Damit ließe sich sogar die Dunkle Materie mit der Dunklen Energie vereinigen. Das Universum könnte danach einst von Dunkler Materie beherrscht gewesen sein und später von Dunkler Energie.

Überzeugend sind diese Vorschläge aber nicht. Alle Ideen über das Wesen der Dunklen Energie bleiben pure Spekulation. Ob es sich bei ihr tatsächlich um eine Energieform handelt, bleibt trotz ihres suggestiven Namens unklar. Vielleicht ist die Dunkle Energie ein Artefakt der in der Kosmologie üblichen mathematischen Näherungen und sie existiert in Wirklichkeit gar nicht. Auch gänzlich andere Phänomene könnten das „kosmische Energiebudget“ verändern und eine beschleunigte Expansion vortäuschen.

Die wohl radikalste Idee besagt, dass wir von einem falschen physikalischen Verständnis von Gravitation ausgehen. Die Allgemeine Relativitätstheorie müsse modifiziert werden, weil sie noch keine ganz korrekte Beschreibung der Schwerkraft liefert oder unvollständig ist. Zwar hat sie sich auf kleineren Skalen stets als korrekt erwiesen, aber über weite kosmische Distanzen hinweg ist ihre Gültigkeit streng genommen nur eine unüberprüfte, wenn auch plausible Vermutung. Auf den extremen Skalen, die wir inzwischen beobachten, könnte die Anziehungskraft unter Massen anders funktionieren, als wir heute denken. Wir können daher nicht ausschließen, dass die Messdaten, aus denen wir auf die Existenz Dunkler Energie schließen, letztlich nur ein Artefakt aus der Verwendung eines noch nicht endgültigen Gravitationsgesetzes sind, das uns in die Irre führt.

[Der indische Physiker Thanu Padmanabhan erklärt die Schwerkraft gleichsam thermodynamisch, sie ist für ihn eine abgeleitete Größe wie die Temperatur. (Auch aus der Perspektive der Stringtheorie wird dafür plädiert, dass die Gravitation ein emergentes Phänomen sei. ) Befindet sich ein System im Gleichgewicht, ist seine Entropie (eine thermodynamische Zustandsgröße) maximal. Analoges gelte für gravitative Systeme. Eine Raumzeit erfüllt Einsteins Gleichungen, weil die „Atome der Raumzeit“ die Entropie maximieren – so wie ein Gas den Gasgesetzen gehorcht, weil seine Atome die Entropie maximieren. Padmanabhan ist überzeugt: Weil man die Atome der Raumzeit noch nicht identifiziert und mit einer neuen Quantentheorie beschrieben hat, waren die jahrzehntelangen Versuche, die Schwerkraft zu quantifizieren, von vornherein zum Scheitern verurteilt. Im Rahmen von Padmanabhans Ansatz lässt sich auch die Dunkle Energie erklären. Wenn seine Ideen richtig sind, ergibt sich eine kleine Kosmologische Konstante fast zwingend als ein Relikt der Quantengravitation.]

Obwohl es nach dem Kosmologischen Prinzip undenkbar erscheint, dass wir einen besonderen Ort im Universum bewohnen, ziehen einige Physiker diese Idee seit Kurzem in Betracht. Fällt das Kosmologische Prinzip, löst das einen Domino-Effekt aus – mit unabsehbaren Folgen, zuerst für die Dunkle Energie. Wenn die Materieverteilung nämlich ungleichmäßiger wäre, als bislang gedacht, würde die kosmische Expansionsrate je nach Ort variieren. Es sei demnach durchaus möglich, dass sich der Galaxienhaufen, zu dem die Milchstraße gehört, in einer gewaltigen Region mit unterdurchschnittlicher Materiedichte befindet. Dann wäre das Standardmodell womöglich unhaltbar und die ominöse Dunkle Energie vielleicht nur eine Illusion.

Eine Gruppe von Forschern um Edward M. Kolb und Antonio Riotto nehmen sogar an, dass das gesamte beobachtbare Universum eine unterdurchschnittliche Dichte hat – geringer als seine für uns aufgrund der endlichen Lichtgeschwindigkeit und Beobachtungszeit nicht einsehbare weitere Umgebung. Diese würde gleichsam einen „Sog“ auf die unterdichte Blase des beobachtbaren Universums ausüben – und somit in ihr eine beschleunigte Expansion bewirken. Dass sich solche weiträumigen Dichteunterschiede im gesamten, womöglich unendlich großen All ausbilden konnten, wird als Konsequenz der kosmischen Inflation gedeutet. Den Kosmologen bleibt allerdings die schwierige Aufgabe, herauszufinden, ob die Rückwirkung tatsächlich ein vollwertiger Ersatz für die rätselhafte Dunkle Energie ist.

Die meisten Forscher bezweifeln aber die Annahme, wir würden nicht in einem typischen Teil des Universums leben. Selbst führende Theoretiker betrachten die unterschiedlichen Theorien, die eine Änderung vorhersagen, als Versuche, die überraschende Entdeckung der Dunklen Energie ad hoc zu erklären, ohne dass die Physik dazu wirklich verstanden wäre. Auch sprechen neue Röntgendaten gegen eine alternative Erklärung der beschleunigten Expansion, derzufolge die Allgemeine Relativitätstheorie über große Räume und Zeiten nicht gelte.

Fazit

Für keinen der Einwände gegen die Dunkle Energie gibt es also derzeit eine gute Begründung. Es haben sich zwar interessante Ansätze ergeben, aber sie alle kranken daran, dass keine zur Gesamtheit der verschiedenen Messdaten passt. Im Moment räumen Kosmologen daher dem Konzept der Dunklen Energie deutlich bessere Erfolgschancen ein als anderen Ideen. Nach bisheriger Datenlage ist die Kosmologische Konstante die einfachste und wahrscheinlichste Erklärung für die Dunkle Energie, sehr gut vereinbar mit den bisherigen Messdaten. Sie stellt wohl tatsächlich den Löwenanteil der Gesamtenergie des heutigen Universums und bewirkt die beschleunigte Expansion. Es bleibt aber das Unbehagen über die genannten „Zufälle“, etwa über die von ihre beigesteuerte Energiedichte. Und es bleibt ein Rätsel, warum diese Dunkle Energie überhaupt vorhanden ist und warum sie gerade jetzt die kosmische Expansion bestimmt.

Ist die Dunkle Energie also eine wissenschaftliche Sackgasse oder ein Höhepunkt der gegenwärtigen Erkenntnis? Die endgültige Beantwortung dieser Frage hat weitreichende Folgen für die Kosmologie und eine ausschlaggebende Bedeutung für zukünftige Theorien, mit denen man die Naturkräfte in einheitlicher Weise beschreiben will. Und erst wenn wir das geheimnisvolle Wesen der Dunklen Energie enträtselt haben, sind Prognosen über unsere kosmische Zukunft realistisch möglich.

REM

Dunkle Materie

Das Standardmodell der Kosmologie beschreibt viele Eigenschaften unseres Universums sehr gut. Mindestens drei Parameter mussten aber eingeführt werden, um irritierende astronomische Daten zu erklären: die Dunkle Materie, die die Dynamik der Galaxien beherrscht, eine Dunkle Energie, die die anscheinend beschleunigte Ausdehnung des Weltraums antreibt, und ein hypothetisches Feld namens Inflaton, das unser Weltall im ersten Sekundenbruchteil nach dem Urknall durch die sogenannte Inflation überhaupt erst groß gemacht hat. Diese liefert auch eine Erklärung für die fast perfekte Homogenität des Universums.

Dunkle Materie, Dunkle Energie und Inflation können zwar mit ihren Eigenschaften in den Rahmen der Allgemeinen Relativitätstheorie eingebaut werden, wobei auch eine Erweiterung der Elementarteilchenphysik oder eine Modifikation der Gravitationstheorie hilft. Aber die eingeführten Größen könnten auch dafür sprechen, dass irgendeine an sich gut etablierte Grundannahme falsch oder das Kosmologische Prinzip ein Irrweg ist. Vielleicht brauchen wir eine ganz neue Physik mit bisher unbekannten Effekten und Gesetzen. Wir könnten ein kosmologisches Modell entwickeln, das ganz ohne Dunkle Materie, Dunkle Energie und Inflation auskommt und ihre Wirkungen lediglich auf Effekte einer abgewandelten Gravitationstheorie zurückführt. Die Mehrheit der Wissenschaftler ist allerdings zurzeit, trotz durchaus gewichtiger Argumente, nicht dieser Meinung.

  1. Dunkle Materie

Bereits vor knapp 90 Jahren hat der Schweizer Astronom Fritz Zwicky festgestellt, dass die circa tausend Galaxien im 300 Millionen Lichtjahre entfernten Coma-Haufen schneller um ihr gemeinsames Schwerkraftzentrum schwirren, als es gemäß der Masse der leuchtenden Materie von Gas und Sternen eigentlich möglich ist. Bei vielen anderen Galaxienhaufen wurde seither Ähnliches festgestellt. Auch die Außenbezirke einzelner Spiralgalaxien rotieren rascher, als es die Gesetze der Schwerkraft erlauben, nämlich fast genauso schnell wie Regionen nahe am Zentrum. Eigentlich müssten sie je weiter vom Gravitationszentrum entfernt umso langsamer sein. Auch unser Sonnensystem bewegt es sich zu schnell um das Zentrum der Milchstraße herum, nämlich mit einer Geschwindigkeit von 220 km/s, denn die Masse aller bekannten Materie reicht nicht aus, um es auf seiner Umlaufbahn zu halten.

Diese Beobachtungen liefern Hinweise auf die Existenz einer unbekannten Materie, die weder elektromagnetische Strahlung emittiert noch absorbiert und nur durch ihre Gravitation für uns wahrnehmbar ist. Ohne diese „Dunkle Materie“ lassen sich also die eindeutig beobachteten Sternbewegungen oder das dynamische Verhalten der Sternsysteme nicht erklären. Ohne sie müssten Galaxien und Galaxienhaufen auseinander fliegen. Sie könnte auch die Ursache für die Materieverteilung sein, die sich ergibt, wenn zwei Haufen miteinander kollidieren.

Nach Computersimulationen durchziehen Dunkle-Materie-Filamente mit vielen Millionen Lichtjahren Länge das gigantische Spinnennetz der gewöhnlichen Materie im Universum. An den Kreuzungspunkten der Filamente, wo wir große Massenanhäufungen in Form von Galaxienhaufen erblicken, soll sich auch eine große Ansammlung von Dunkler Materie befinden. Die Wissenschaftler haben berechnet, dass bis zu circa sechs Mal mehr Dunkle Materie als sichtbare helle Materie die einzelnen Galaxienhaufen und Galaxien durchsetzt und durch ihren gravitativen Einfluss zusammenhält. Sie ist sozusagen der unsichtbare Kitt unseres Universums.

Auch die leuchtende Scheibe der Milchstraße schwebt offenbar nicht isoliert im Raum, sondern scheint in einen riesigen Halo Dunkler Materie – viel größer als die Milchstraße selbst – eingebettet zu sein: mit einem Durchmesser von mindestens 600 000 Lichtjahren (vielleicht sogar zwei Millionen Lichtjahren). Er hält nach den Modellrechnungen ihre Spiralstruktur aufrecht. Nur mit der Annahme, dass hier diese große anziehende Masse existiert, lässt sich auch ihre Dynamik (z. B. die Rotationsgeschwindigkeit) erklären. Das ursprüngliche Wegdriften der Andromeda-Galaxie (unserer benachbarten Spiralgalaxie) könnte nicht in die heute beobachtete Annäherung an die Milchstraße übergegangen sein, wenn nicht auch beide Galaxien große Mengen von dieser rätselhaften Materie enthalten würden.

Nach den Berechnungen durchdringt Dunkle Materie also das gesamte Weltall und ist überall dort, wo sich auch die normale aus Atomen bestehende Materie befindet. Aber man kann ihre Existenz nicht beweisen; sie ist bisher nur über ihre Massenanziehung erschließbar. Jedoch hat man inzwischen außer deutlichen indirekten Anzeichen auch handfeste Hinweise auf sie gefunden. Die spektakulärsten scheinen Gravitationslinsen zu liefern, die in den meisten großen Galaxienhaufen beobachtet werden. Bei diesem Phänomen beugt ein Gravitationsfeld das von einem noch weiter entfernten Hintergrundobjekt ausgehende Licht, so das Zerrbilder entstehen. Die Gravitationslinsen scheinen in den meisten Fällen Ansammlungen Dunkler Materie zu sein. Ein anderer Hinweis auf Dunkle Materie war die Beobachtung eines winzigen Sterns, der sich langsam aufhellte und dann – im Laufe von 100 Tagen – wieder verdunkelte. Dieses einmalige Aufflackern ist eigentlich nur damit zu erklären, dass Dunkle Materie vor dem Stern hergezogen ist und dessen Licht gebündelt hat.

Entstehung der Dunklen Materie

Die Dunkle Materie sollte – wenn es sie denn gibt – ebenso wir die gewöhnliche Materie kurz nach dem Urknall entstanden sein. Während in der heißen und dichten Frühphase des Universums die Materieteilchen immer wieder erzeugt und durch hochenergetische Kollisionen wieder vernichtet wurden, reichte bei dessen fortschreitender Ausdehnung und Abkühlung rund 10 Nanosekunden (10 Milliardstel Sekunden / 10-10 s) nach dem Urknall die Energie zur Erzeugung neuer Dunkle-Materie-Teilchen nicht mehr aus. Die geringer werdende Teilchendichte verhinderte die Häufigkeit von Zusammenstößen und damit die gegenseitige Vernichtung der existierenden Teilchen, bis die Kollisionen ganz aufhörten. Gleichzeitig müssten sich die Dunkle-Materie-Teilchen vom Rest der Materie „entkoppelt“ haben, also praktisch nicht mehr mit ihr reagiert haben. Fortan blieb ihre Anzahl im Universum konstant. Seitdem sausen die Teilchen der Dunklen Materie, ähnlich den allerdings fast masselosen Neutrinos, scharenweise durchs All.

Zunächst gleichförmig im Weltraum verteilt, ballten sie sich schon sehr bald zu vielen kleinen Dunkle-Materie-Halos zusammen, von denen etliche miteinander kollidierten und zu größeren Halos verschmolzen. Meistens verleibten sie sich dann in einer Art „Dunkle-Halo-Kannibalismus“ Zwerghalos ein und wuchsen so zu stattlicher Größe heran. Die Dunkle-Materie-Halos zogen dann dank ihrer Schwerkraftwirkung auch gewöhnliche Materie an, so dass sich Galaxien wie unsere Milchstraße bilden konnten. Ohne die Dunkle Materie hätte das Universum nicht genug Zeit gehabt, aus den Dichteunterschieden des frühen Universums bis heute die Sterne, Galaxien, Galaxienhaufen und -superhaufen zu formen und ihre Entwicklung zu prägen.

[In den Simulationen wuchsen die Strukturen aus Dunkler Materie aber zu schnell heran, als es astronomische Beobachtungen nahelegen. Daher brachte das Standardmodell noch die sog. Dunkle Energie ins Spiel. Diese verlangsamt das Heranwachsen der Dunkle-Materie-Strukturen, so dass die errechnete Materieverteilung nun mit den Beobachtungen im Einklang steht.]

Die Dunkle Materie soll heute die Galaxien als kugelförmige, nichtleuchtende Partikelwolke einhüllen und sie zusammenhalten, ohne die „normale“ Materie zu stören. Ihre Teilchen verteilen sich allerdings auf kleinen Skalen keineswegs homogen, sondern können Ströme und Klumpen bilden. Deren Schwerkraft kann so zur Bildung von Zwerggalaxien führen, wenn genügend normale Materie in der Nähe ist. Zwerggalaxien besitzen zwar nur wenige zehntausend bis hunderttausend Sterne – in ihnen sollen aber viele Dutzend Millionen Sonnenmassen an unsichtbarer Materie stecken. Ohne Dunkle Materie könnten Zwerggalaxien wahrscheinlich gar nicht existieren.

Abhängig von den Jahreszeiten durchfluten ständig viele Dunkle-Materie-Teilchen auch unseren Heimatplaneten. Dabei sollen große Mengen von ihnen auch unsere Körper durchdringen, ohne dass wir sie sehen oder spüren. In jedem Liter Luft, den wir atmen, könnten einige Dutzend dieser Teilchen vorhanden sein, wie auch in jedem Liter „leeren Raums“ im ganzen Universum.

Was ist Dunkle Materie?

So erdrückend die Indizien für die Dunkle Materie inzwischen auch sind – bis heute ist ungeklärt, welcher Art diese Materie ist und welche detaillierten Eigenschaften sie besitzt. Es gibt schon interessante Ansätze zur Lösung, aber noch keine akzeptierte Hypothese. Prinzipiell unterscheidet man zwei Möglichkeiten: Dunkle Materie ist von einer „anderen Art„, d. h. einer Form, die sich von der aus Protonen, Neutronen und Elektronen bestehenden „normalen“ Materie (baryonische Materie), aus der auch jedes Atom auf der Erde gebildet wird, stark unterscheidet – oder sie setzt sich aus Brocken gewöhnlicher Materie zusammen, die nicht leuchtet und deshalb unsichtbar ist.

Für den möglichen baryonischen Anteil der Dunklen Materie gibt es aussichtsreiche Kandidaten: Kleine oder große kalte Brocken (z. B. Asteroiden), Planeten, Braune, Rote und Schwarze Zwerge oder ausgekühlte Weiße Zwerge. Sie können aber unmöglich den Hauptbestandteil der Dunklen Materie bilden. Ein anderer Vorschlag ist die sogenannte heiße Dunkle Materie (HDM), für die als plausibelste Kandidaten Neutrinos in Frage kommen. Diese sind die mit Abstand häufigsten Teilchen im Universum (in jedem Kubikmeter soll es über 300 Millionen geben) und haben einige der für die Teilchen der Dunklen Materie gewünschte Eigenschaften. Aber die heiße Dunkle Materie würde höchstens zwei Prozent zu der Gesamtmasse des Universums beitragen – und wegen ihrer Schnelligkeit könnte sie nicht genügend kleinskalige Verklumpungen bilden, wo die Galaxien entstanden.

Am besten passt die sogenannte kalte Dunkle Materie (KDM) zu den astronomischen Beobachtungen. „Kalt“ bedeutet, dass sich ihre Teilchen mit Geschwindigkeiten bewegen, die im Vergleich mit der Lichtgeschwindigkeit klein sind. Kalte Materie kann sich leichter verdichten als warme oder gar heiße. Zwar schafft die KDM ihre eigenen Probleme bei der Erklärung kosmischer Strukturen. Dennoch halten die meisten Kosmologen diese Nachteile für gering gegenüber den Schwierigkeiten alternativer Hypothesen.

Die Teilchen der KDM müssen eine verhältnismäßig große Ruhemasse besitzen und dürfen kaum (außer durch Gravitation) mit gewöhnlicher Materie wechselwirken. Sie machen, wenn es sie denn gibt, nach den Berechnungen im Rahmen des Kosmologischen Standardmodells fast ein Drittel der Gesamtdichte des Universums aus. Das gegenwärtige Standardmodell der Elementarteilchen bietet aber keine Partikel an, die dafür in Betracht kommen, doch Erweiterungen des Modells liefern eine ganze Schar plausibler Kandidaten, sogenannte hypothetische bzw. exotische Teilchen. Dazu gehören die WIMPs („weakly interacting massive particles“ = schwach wechselwirkende Teilchen mit Masse). Theorien sagen eine WIMP-Masse irgendwo zwischen dem 10- und 1000-fachen der Protonenmasse voraus, nach normalem Maßstab also schwere und stabile Teilchen. Innerhalb der Genauigkeit der Schätzungen entspricht die Masse der aus der Frühzeit des Universums übriggebliebenen WIMPs erstaunlicherweise genau jener, die zur Erklärung der heutigen kosmischen Dunklen Materie nötig ist. Diese bemerkenswerte Übereinstimmung bezeichnen Physiker als WIMPs-Koinzidenz.

WIMPs kommen in vielen supersymmetrischen Erweiterungen des Standardmodells der Elementarteilchen vor. Die „Supersymmetrie“ (kurz SUSY) ist eine extrem elegante und schlüssige Erweiterung des bisherigen Weltmodells. Die vielen Varianten setzen eine fundamentale, bisher allerdings hypothetische Symmetrie in der Natur voraus. Sie liefern zu jedem bekannten Teilchen einen supersymmetrischen Partner, postulieren also eine komplett neue Teilchenfamilie. Die Supersymmetrie entzieht sich aber gegenwärtig ihrer Bestätigung.

Als nahezu idealer Kandidat für die Dunkle Materie gilt unter den supersymmetrischen Teilchen das leichteste der vier sogenannten Neutralinos. Es ist eine hypothetische Mischung aus den Superpartnern des Photons (das die elektromagnetische Kraft überträgt), des Z-Bosons (Träger der Schwachen Kernkraft) und vielleicht noch anderer Teilchentypen. Das Neutralino ist stabil und nach normalen Maßstäben schwer, zudem elektrisch neutral, und verfügt über die „richtigen“ Wechselwirkungen.

Inzwischen gibt es sehr gute Gründe dafür, dass als Bausteine der Dunklen Materie auch sehr leichte, sehr schwach wechselwirkende Teilchen in Frage kommen: sogenannte WISPs („weakly interacting slim particles“ = schwach wechselwirkende leichte Teilchen). In ihrer Abneigung, mit gewöhnlicher Materie zu wechselwirken, übertreffen sie die WIMPs sogar noch bei Weitem. Auch einige astrophysikalische Beobachtungen deuten auf die Existenz von WISPs hin.

Das vielleicht am besten verstandene WISP und der wahrscheinlichste und am wenigsten exotische Kandidat für die Dunkle Materie ist das Axion, ein sehr leichtes, neutrales Teilchen. Es wurde von Theoretikern Ende der 1970er Jahre postuliert, um eine Anomalie bei der Beschreibung der Starken Kernkraft zu beheben. (Auch viele stringtheoretische Ansätze legen die Existenz einer ganzen Reihe leichter Teilchen nahe, von denen manche dem Axion ähneln.) Da Axionen sehr leicht sind, müsste es sehr viel von ihnen geben, um die Gesamtmasse an Dunkler Materie im Universum zu erzeugen. In jedem Kubikzentimeter um uns herum müssten sich dutzende und sogar hunderte Billionen Axionen befinden, was durchaus als plausibel gilt.

Das supersymmetrische Konzept lässt auch andere Szenarien zu, in denen mehrere andere Teilchentypen an die Stelle der WIMPs treten. Einige Wissenschaftler vermuten einen wahren Zoo von Teilchen (Super-WIMPs), zwischen denen neuartige Naturkräfte herrschen. Demnach sollte die Dunkle Materie eine eigene Welt sein, ähnlich komplex wie die gewöhnliche Materie – mit vielen Teilchen, eigenen Kräften und einer fremden Form von Licht -, die für uns unsichtbar ist, aber die mit unserem Kosmos über die Schwerkraft wechselwirkt.

Bisher sind Dunkele-Materie-Teilchen, ob WIMPs oder WISPs, noch in keinem Experiment aufgetaucht. Außerdem gibt es eine Reihe von Unstimmigkeiten: So lässt sich Dunkle Materie mit einigen astrophysikalischen Daten nicht vereinbaren. Daher haben einige Physiker den Verdacht, dass sich die Wissenschaft hier in einer Sackgasse befindet und nach Alternativen zur Dunklen Materie suchen sollte. Dazu müsste aber eine Abweichung von den Standardgesetzen hingenommen werden, z. B. ein anderes Verständnis der Gravitation in Galaxien, d. h. eine Neuformulierung der Gravitationsgesetze. Das quadratische Abstandsgesetz (z. B. die Schallausbreitung oder die Abnahme der Strahlungsintensität im Raum) ist zwar in weiten Bereichen hervorragend bestätigt. Aber es lässt sich bislang nicht ausschließen, dass die Schwerkraft doch nicht überall linear proportional zur Beschleunigung ist, wie es Newton postuliert hat. In Galaxien könnte die sichtbare, baryonische Materie leicht stärkere Kräfte verursachen.

Immerhin haben sich ja schon zwei drastische Änderungen der Newtonschen Physik als notwendig erwiesen: Die erste führte zur Relativitätstheorie – sowohl zur Speziellen, die das Zweite Newtonsche Gesetz abändert, als auch zur Allgemeinen, die das Gravitationsgesetz völlig neu formuliert. Eine zweite Modifikation führte zur Quantentheorie, die das Verhalten mikroskopischer – in Spezialfällen auch makroskopischer – Systeme beschreibt. Diese bewährten Erweiterungen der Newtonschen Dynamik wirken sich in der Regel nur unter extremen Bedingungen merklich aus: die Spezielle Relativitätstheorie z. B. bei sehr hohen Geschwindigkeiten, die Allgemeine Relativitätstheorie bei extrem starker Gravitation. Möglicherweise versagt die Newtonsche Mechanik auch für die Größenordnung galaktischer Systeme.

Aus wissenschaftlichen Gründen spricht viel dafür, dass eine solche Alternative konzeptionell sogar einfacher ist als die Dunkle-Materie-Hypothese – und auch das Standardmodell der Elementarteilchen nicht ergänzt werden müsste. Eine allgemein akzeptierte, konkrete Formulierung einer solchen modifizierten Gravitation gibt es bis heute allerdings noch nicht. Momentan befinden sich einige Alternativen im Wettstreit.

Alternativen

Am bekanntesten ist wohl die MOND (Modifizierte Newtonsche Dynamik), erstmals Anfang der 1980er Jahren von dem israelischen Physiker Mordehai Milgrom formuliert (1983 publiziert). Sie basiert auf einer weiteren Modifikation des Zweiten Newtonschen Gesetzes, demzufolge die auf einen Körper wirkende Kraft proportional zu dessen Beschleunigung ist. MOND sagt im Kern, dass die Anziehungskraft zwischen zwei Körpern nicht mit dem Abstand im Quadrat abnimmt, sondern bei extrem kleinen Beschleunigungen sogar verstärkt wird – ein Effekt, der nur in galaktischen Größenordnungen eine gewisse, aber eben entscheidende Rolle spielt. Solche Abweichungen treten, Milgrom zufolge, z. B. bei Beschleunigungen auf, wie sie in den entferntesten Regionen von Galaxien herrschen, wo der Schwereeinfluss gering ist.

Durch MOND wird eine neue Naturkonstante namens a0 eingeführt, die die Dimension einer Beschleunigung hat. Ist die jeweilige Beschleunigung wesentlich größer als a0, dann gilt Newtons Gesetz wie gehabt: Die Kraft ist proportional zur Beschleunigung. Wird die Beschleunigung jedoch klein gegen a0, verändert sich das Gesetz. Dadurch ist die für eine bestimmet Beschleunigung benötigte Kraft stets kleiner als gemäß der Newtonschen Dynamik. Im Falle der beobachteten Beschleunigungen in Galaxien sagt MOND eine kleinere Kraft – und somit eine geringere gravitationserzeugende Masse – voraus.

Indem Milgrom die Formeln des Zweiten Newtonschen Gesetzes für solche Fälle modifizierte, konnte er die beobachtete Dynamik der Galaxien perfekt beschreiben (sogar besser als mit Dunkler Materie). Im Gegensatz zu Simulationen mit der unbekannten Materie kann MOND auch erklären, wie sich kleine Galaxien im Schwerefeld größerer Galaxien verhalten. So sagen die Berechnungen erfolgreich vorher, wie diverse jüngst entdeckte Zwerggalaxien um unseren nächsten großen Nachbarn, die Andromeda-Galaxie, wirbeln.

Den hervorragenden Bestätigungen der einsteinschen Allgemeinen Relativitätstheorie widerspricht dies nicht, denn die entsprechenden Experimente zu jener fanden stets auf kleinen Skalen statt. Die Gravitationsgesetze erklären daher perfekt alle Phänomene, die sich auf Größenordnungen von Millimetern bis zu den Bahnen der Planeten abspielen, müssen aber nicht notwendigerweise auch auf der Ebene von Galaxien gelten. Warum es zu dieser Abweichung vom Newtonschen Gesetz kommt, kann das Modell Milgroms allerdings nicht erklären.

Häufige Einwände gegen MOND-Theorien ist auch ihre heutige Vielfalt und ihre uneleganten mathematischen Formen, die ungewohnt und schwierig zu handhaben sind. Und trotz mancher Erfolge bereitet die modifizierte Gravitation bei anderen Vorhersagen auch ernsthafte Probleme. So kann sie beispielsweise die Bewegung von Galaxienhaufen nicht vorhersagen. Um das Verhalten des Weltraums als Ganzes nachzuvollziehen, ist sie sogar völlig ungeeignet. Hier funktioniert die Dunkle Materie besser.

Eine andere Alternative, die Modified Gravity (MOG) des kanadischen Physikers John Moffat, basiert darauf, im Fall schwacher Felder eine weitere Kraft zur Gravitation zu addieren. Erik Verlinde erklärt dagegen die Schwerkraft zu einem Produkt quantenmechanischer Wechselwirkungen, wäre also ein emergentes Phänomen und ginge auf großen Skalen aus dem Zusammenspiel kleinster Elemente hervor.

Neuerdings wird auch über eine andere Erklärung für die unsichtbare und rätselhafte Dunkle Materie spekuliert: primordiale Schwarze Löcher. Sie sind eine besonders leichte Form der Schwarzen Löcher, die nach manchen theoretischen Modellen in riesigen Mengen aus dem heißen und dichten Plasma hervorgegangen sein könnte, das kaum eine Sekunde nach dem Urknall den Kosmos erfüllte. Wenn es primordiale Schwarze Löcher denn wirklich gibt, wären es an sich ideale Kandidaten, da sie kein Licht aussenden. Ihre massereichen Vertreter würden auf einen Schlag nicht nur das Rätsel der Dunklen Materie, sondern auch weitere kosmologische Probleme lösen. Sie könnten vor allem auch das sogenannte Rätsel um die fehlenden Begleiter aufklären: den scheinbaren Mangel an Zwerggalaxien, die sich um massereiche Galaxien wie unsere Milchstraße gebildet haben müssten.

Computersimulationen sagen die Existenz einer großen Zahl an Zwerggalaxien in Galaxiengruppen voraus, doch Astronomen fanden bisher nur wenige Dutzend von ihnen. Nach kosmologischen Simulationsrechnungen könnten es z. B. tausende Zwerggalaxien in der Lokalen Gruppe geben, allein rund 500, die die Milchstraße umkreisen. Falls die Dunkle Materie tatsächlich aus primordialen Schwarzen Löchern besteht, die wenige Dutzend bis Hundert Lichtjahre große Ansammlungen bilden, hätten diese das meiste Gas in ihrer Umgebung verschlungen, so dass sich hier kaum mehr Sterne bilden konnten. Die Zwerggalaxien würden dann gar nicht fehlen, sondern wären häufig vorhanden – aber mangels Sternen sehr lichtschwach und damit schlicht unsichtbar.

Für das Szenario sprechen viele Beobachtungen der letzten Zeit. So lässt sich die Entdeckung unerwartet häufiger Röntgenquellen im frühen Universum am einfachsten durch große Mengen primordialer Schwarzer Löcher erklären, die knapp eine Milliarde Lichtjahre nach dem Urknall Gas verschlangen und dabei Röntgenstrahlen aussandten. Und gerade die jüngsten Messungen von Gravitationswellen lassen es möglich oder sogar plausibel erscheinen, dass primordiale Schwarze Löcher zu den Quellen der Signale gehören. Aber es existiert eben noch kein einziger definitiver Hinweis auf ihre Existenz und wie sie entstanden ist.

Mit der Aufdeckung des Geheimnisses der Dunklen Materie würden unsere Vorstellungen über unser Universum noch einmal stark verändert werden. Sollte es keine Teilchen der Dunklen Materie gibt, wäre das aber auch eine große Niederlage für die Physik.

REM

Bedeutung des Mondes

Der Mond ist das nach der Sonne hellste Objekt am Himmel, das mit seinen einzigartigen Helligkeits- und Phasenwechseln die Menschen seit Urzeiten in seinen Bann zieht. In alten Kulturen wurde der Erdbegleiter als Gott oder Göttin verehrt, oft als Gegenpol zur Sonne. So war der wichtigste Gott der Sumerer, Sin, der Vater aller Götter und Schutzgott der Stadt Ur (im heutigen Irak), eine Verkörperung des Mondes.

Stonehenge wurde so gebaut, dass damit die speziellen Positionen des Mondes vorhersagbar und bestimmbar waren. Auch in unseren Ritualen und kulturellen Zeremonien hat der Mond seinen Platz gefunden. Die Chinesen feiern seit altersher ein Mondfest. In ihrer Kultur steht der Mond für Frieden und Wohlstand, seine Rundung symbolisiert Ganzheit und Zusammengehörigkeit. Der islamische Kalender ist ein reiner Mondkalender, und das Ostern der Christen wird am Sonntag nach dem ersten Vollmond im Frühling gefeiert.

Für einen Trabanten ist die Masse unseres Mondes relativ groß; sie beträgt gut ein Prozent der Masse der Erde. Alle anderen Monde in unserem Sonnensystem (mit Ausnahme des Plutobegleiters Charon) besitzen weniger als 0,025% der Masse ihres Planeten. Weil der Mond einen merklichen Bruchteil der Erdmasse besitzt, macht es mehr Sinn, sich vorzustellen, dass die beiden Himmelskörper um einen gemeinsamen Schwerpunkt kreisen, der allerdings noch im Inneren der Erde liegt. Das Doppelsystem Erde-Mond umkreist seinerseits die Sonne und wird durch deren Anziehungskraft auf seiner Bahn gehalten.

Der Durchmesser des Mondes misst 3476 Kilometer, rund ein Viertel der Größe der Erde. In einem Abstand von heute 386 000 Kilometern (rund dreißig Erddurchmessern) rast der Trabant mit einer Geschwindigkeit von knapp 30 000 km/h um unseren Planeten. Seine Fliehkraft ist gerade so groß, dass sie einen Sturz auf die Erde, aber auch ein Entweichen in den Weltraum, verhindert.

Die Bahn des Mondes um die Erde ist allerdings keine reine Kreisbahn, sondern schwankt aufgrund mehrerer Einflüsse (vor allem der Gravitation anderer Himmelkörper des Sonnensystems). So war unser Begleiter beispielsweise am 30. Juli 1996 nur 356 970 Kilometer von der Erde entfernt, 51 000 Kilometer weniger als am erdfernsten Punkt circa zwei Wochen vorher (407 970 Kilometer).

Entstehung des Doppelsystems Erde-Mond

In der Frühzeit unseres Sonnensystems, nach neuesten radiometrischen Berechnungen vor 4,527 Milliarden Jahren, wurde der Mond geboren. Als plausibelste Ursache für seine Entstehung gilt heute die Kollision der Erde mit einem anderen Planeten von etwa der Größe des Mars, den man Theia nennt (nach der griechischen Göttin, die den Mond Selene geboren hat). Zur damaligen Zeit trieb eine Unmenge von kleinen und größeren Himmelskörpern durch das Sonnensystem. Die junge Erde hatte durch frühere Kollisionen bereits 90% ihrer endgültigen Größe und Form erreicht und nach einer ersten Abkühlungsphase gerade wieder eine relativ einheitliche Kruste gebildet. Die Kollision mit Theia war äußerst brachial; nach dem derzeit gültigen Szenario rasten beide Planeten mit einer Geschwindigkeit von etwa 54 000 km/h aufeinander zu. Theia traf den Vorläufer der Erde in einem spitzen Winkel, also seitlich, wie bei einem Streifschuss. Bei einem frontalen Aufprall wäre die junge Erde wahrscheinlich völlig zerfetzt worden.

Beide Planeten waren zum Zeitpunkt des Zusammenpralls bereits weitgehend differenziert, d. h. die Bildung ihrer Kerne war schon fast abgeschlossen und die Eisenanteile der Himmelskörper hatten sich schon als Schmelze hier angesammelt. Fast der gesamte Eisenkern von Theia blieb in der Urerde stecken. Sein flüssiges Eisen sank durch das aufgeschmolzene irdische Mantelgestein in die Tiefe und vereinigte sich (vermutlich innerhalb von ein paar Stunden) mit dem irdischen Eisenkern, der unversehrt geblieben war. Daher hat der Mond weniger Eisen als irgendein anderer fester Körper des Sonnensystems.

Der Mantel Theias sowie ein Teil des Erdmantels, insgesamt riesige Mengen von Material (mehrere tausend Grad heiß), wurden aus dem Erdkörper herausgeschleudert. Ein höherer Anteil des Theia-Gesteins , darunter möglicherweise bis zu 10 Milliarden kilometergroße Bruchstücke, erreichte die Fluchtgeschwindigkeit und wurde ins Sonnensystem hinausgeschleudert, wo etliche Brocken später wahrscheinlich mit Körpern des Asteroidengürtels zusammenstießen. Das übrige Material sammelte sich, gehalten von der Erdanziehung, in einer Wolke um die Erde.

Das erklärt die verblüffende chemische Ähnlichkeit zwischen Mond und Erdmantel: Die Anteile der chemischen Elemente stimmen auf dem Mond bis auf wenige Ausnahmen mit denen auf der Erde überein. Bei den Isotopen des Sauerstoffs sind Erde und Mond sogar fast nicht zu unterscheiden. Wahrscheinlich dauerte es nicht lange, bis sich aus der Wolke von Schutt und Staub der Erdtrabant geformt hatte und zu einer Größe herangewachsen war, die ihn in einer dauerhaften Umlaufbahn um die Erde hielt.

[Genauere Untersuchungen von Gesteinsproben sowie verbesserte Computersimulationen scheinen allerdings nicht mehr so gut in dieses Modell von einem gigantischen Einschlag zu passen. Ein Schwachpunkt der Theorie ist auch, dass über Theia kaum etwas bekannt ist. Es ist eine Art freier Parameter, mit dem sich die Ergebnisse der Rechnungen an die Messwerte anpassen lassen. Inzwischen gibt es eine Menge weiterer Hypothesen über die Entstehung des Mondes: Der Mond könnte sich von der sehr schnell rotierenden Urerde durch eine Art „Pirouetten-Effekt“ abgeschnürt haben (Abspaltungshypothese), der Mond könnte sich gleichzeitig mit der Erde aus der um die Sonne kreisenden Urwolke gebildet haben (Doppelplanethypothese) oder der Mond könnte sich anderswo im Sonnensystem gebildet haben und von der Erde eingefangen worden sein (Einfanghypothese).]

Die Impakt-Theorie kann aber am besten Größe und Orbit des Mondes erklären. Für ihre Richtigkeit sprechen auch die auffälligen chemischen Ähnlichkeiten zwischen Mond- und Erdgestein, beispielsweise die fast identischen Isotopenverhältnisse des Sauerstoffs auf beiden Himmelskörpern. Die Theorie erklärt auch den Mangel an flüchtigen Elementen wie Natrium und Kalium, die schon bei relativ niedrigen Temperaturen verdampfen und bei der hitzigen Kollision wohl ins All entwichen sind.

Wirkung des Mondes

Gezeiten

Der Mond übt aufgrund seiner relativ großen Masse und seiner Nähe einen relativ großen gravitativen Einfluss auf die Erde aus (wie natürlich umgekehrt auch die Erde auf den Mond). Auf unserem Heimatplaneten zeigt sich dieser besonders in den Ozeanen. Während auf der dem Mond zugewandten Seite durch die Gravitation des Mondes ein Wasserberg entsteht, verursachen die Fliehkräfte infolge der Erdrotation auf der dem Mond abgewandten Seite gleichzeitig einen zweiten Wasserberg.

Da die Erde quasi unter den Flutbergen wegrotiert, hat es den Anschein, dass diese synchron zum Mond von Ost nach West über die Erde wandern. Im offenen Meer merkt man von den ungefähr eine halben Meter hohen Gezeitenebergen wegen fehlender Referenzpunkte kaum etwas. Wenn sie gegen das Festland anlaufen, erzeugen sie aber regelmäßig die bekannten Erscheinungen Ebbe und Flut. An trichterartigen Flussmündungen, Meerengen und ähnlichen Küstenformationen können die Wellenberge dabei hoch aufgetürmt werden, so dass die Unterschiede zwischen Hoch- und Niedrigwasser (der Tidenhub) groß sein können, an der Kanalküste zwischen England und Frankreich sogar bis zu 14 Meter. Ebenfalls ortsabhängig sind zeitliche Verschiebungen oder gar der kuriose Effekt, bei dem die Gezeiten einander so überlagern, dass sie sich gegenseitig auslöschen.

Zusätzlich zu der Schwerkraft des Mondes und der Fliehkräfte infolge der Erdrotation wirkt die Schwerkraft der Sonne auf das Wasser der Erde ein. Dabei beträgt das Kräfteverhältnis der Gravitation Sonne zu Mond 1 zu 2,7; ohne den Mond fielen die Gezeiten also um zwei Drittel schwächer aus. Stehen Sonne, Mond und Erde in einer Linie (bei Voll- und Neumond), verstärkt dies die Gezeiten, da sich die Einflüsse von Sonne und Mond addieren („Springflut„). Steht die Sonne im rechten Winkel (bei Halbmond), so schwächen die von der Sonne verursachten Ebbegürtel die Flutberge, da sich die Gezeitenkräfte von Sonne und Mond teilweise aufheben („Nippflut„).

Aber nicht nur das Meerwasser hebt und senkt sich infolge der Gravitation des Mondes zweimal täglich, sondern auch Kontinente und Meeresböden, mit etwa zwei Stunden Verzögerung auf das leichter verformbare Wasser. Dabei wirken sich die Gezeitenkräfte nicht unmittelbar auf die relativ starre Erdkruste aus, sondern vor allem auf das Magma darunter. Es kommt zu Hebungen und Senkungen des Erdmantels, die sich auf die Kruste übertragen. Davon, dass sich der Boden unter unseren Füßen um durchschnittlich 28 Zentimeter hebt und senkt, merken wir – zumindest bewusst – nichts, weil ganze Kontinente zugleich emporgehoben oder gesenkt werden.

In der Anfangszeit übte der Trabant einen noch viel stärkeren Einfluss auf die Erde aus. Sein Abstand betrug kurz nach seiner Entstehung nur schätzungsweise 60 000 bis 80 000 Kilometer. Seine dadurch stärkere Anziehungskraft muss den Boden um mehr als sieben Meter angehoben haben. Lokale Erdbeben rüttelten wahrscheinlich unseren Planeten gehörig durch, wenn der Mond vorbeizog. Da, wo es Wasser gab, türmten sich gewaltige Flutberge auf.

Unser Planet wird entlang der Verbindungslinie Erde-Mond in die Länge gezogen, da die dem Mond zugewandten Teile der Erde eine etwas größere Schwerebeschleunigung erfahren als die ihm abgewandten und so der frei fallende Erde ein wenig vorauseilen. Da die festen und flüssigen Bestandteile unseres Planeten der Deformation durch die Gezeiten Reibungswiderstand entgegensetzen, wird Wärmeenergie erzeugt. Nach Berechnungen von französischen Wissenschaftlern könnte sich durch die ständige Verformung des Erdkörpers infolge der Gravitationskräfte von Sonne und Mond im Erdinneren so viel Wärme entwickelt haben, dass dadurch die gigantischen Vulkanausbrüche, die im Laufe der Erdgeschichte auftraten, verursacht wurden.

Erdrotation

Die Erde rotiert wie ein Kreisel um eine Achse, deren Schnittpunkte mit der Erdoberfläche die geografischen Pole markieren. Diese Rotationsachse ist gegenüber der Ebene, in der die Erdbahn um die Sonne liegt (die Ekliptik-Ebene), gekippt – heute um einen Betrag von 23,4°. Die Neigung ist aber nicht stabil. Schon bei ihrer täglichen Umdrehung trudelt der Erdkreisel ein wenig hin und her. Gleichzeitig durchläuft er viel größere und langfristigere Schwankungen, die als Präzession bezeichnet werden. Dabei ändert er seine Ausrichtung zur Ekliptik kreisförmig in einem Rhythmus von knapp 26 000 Jahren. Ursache sind die Gezeitenkräfte der Sonne, des Mondes und der Planeten, durch die Drehmomente entstehen, deren Effekte zwar sehr gering sind, sich aber über lange Zeiträume bemerkbar machen.

Insgesamt übt der Mond aber eine stabilisierende Wirkung auf die Lage der irdischen Rotationsachse aus, indem er durch seine Gravitation für eine geringere Schwankungsbreite der Erdneigung sorgt. Damit hält er das irdische Klima und den Ablauf der Jahreszeiten relativ konstant, was gerade für die Evolution komplexer Lebensformen von großer Bedeutung war und für ihr Überleben wichtig ist.

Zudem bremst der Mond auch die Geschwindigkeit, mit der die Erde um ihre Achse rotiert (derzeit 460 m/s), da die festen und flüssigen Bestandteile der Erde der Deformation durch die Gezeiten kontinuierlich Reibungswiderstand entgegensetzen (s. o.). Ohne Mond würde die Erde heute fünfmal, vielleicht sogar neun- bis zehnmal so schnell rotieren. Das Wetter wäre ganz anders; es käme z. B. zu andauernden starken Stürmen mit Windgeschwindigkeiten von bis zu 500 Stundenkilometern. Die Pflanzen müssten unter diesen Bedingungen niedriger wachsen und könnten so das überschüssige Kohlenstoffdioxid nur langsamer abbauen, was zu einem Treibhauseffekt ähnlich wie auf der Venus führen würde.

Da durch den Einfluss des Mondes die Erdrotation im Laufe der Zeit also immer mehr gebremst wird, werden die Tage auf unserem Planeten zwangsläufig länger. Nach Sedimentanalysen des Geologen George Williams dauerte der Tag vor 2,5 Milliarden Jahren ungefähr 20 Stunden, in der Kreidezeit (vor rund 145 bis 66 Millionen Jahren) etwa 23 1/2 Stunden. Im Mittel werden die Tage pro Jahrhundert um 1,7 Millisekunden länger. In 1,8 Milliarden Jahren wird ein Erdentag 35 Stunden dauern.

Die Verlangsamung der Erdrotation verlief und verläuft allerdings nicht gleichmäßig. Nach historischen Daten nahm die Tageslänge während der vergangenen 2500 Jahre sogar um etwa 0,6 Millisekunden pro Jahrhundert zu, was mit dem Abschmelzen der Polkappen und Gletscher innerhalb der vergangenen 10 000 Jahre zusammenhängt.

Entsprechend der Änderung der Tageslänge verringert sich auf die Dauer die Anzahl der Tage im Jahr. Waren es vor etwa 820 Millionen Jahren noch 440 Tage, umfasste ein Jahr in der Kreidezeit nur noch 372 Tage, heute etwas über 365 Tage.

Das Spiel der Kräfte ist letztlich auch dafür verantwortlich, dass sich der Mond allmählich immer mehr von der Erde entfernt. Während die Erde nämlich immer weiter an Drehimpuls verliert, gewinnt der Mond diesen laut dem Gesetz der Drehimpulserhaltung in gleichem Maße hinzu. Der Drehimpuls ist das Produkt aus der Geschwindigkeit einer Masse und ihres Abstand von der Drehachse. Der Gesamt-Drehimpuls in einem geschlossenen System bleibt – wie auch die Gesamt-Energie – immer erhalten, so auch in dem weitgehend isolierten System Erde-Mond. Damit also die Drehimpulsbilanz stimmt, muss, wenn die Erde langsamer wird, der Mond schneller werden.

Hinzu kommt, dass durch die von der Drehung der Erde nach vorne geschobenen Flutberge eine Ausbuchtung auf die Erde entsteht, die der Bewegung des Mondes vorausläuft. Diese beschleunigt über die Gravitationskraft dessen Bewegung. Da die Masse des Mondes aber unverändert bleibt, muss sein Abstand wachsen: Der Mond entfernt sich von der Erde. Nach dem zweiten Keplerschen Gesetz müsste die Bahngeschwindigkeit allerdings mit dem größeren Abstand wieder abnehmen – der Mond wird dadurch also langsamer. Dieser zweite Effekt ist aber kleiner, so dass sich insgesamt die Bewegung des Mondes beschleunigt und er sich deshalb immer weiter von der Erde entfernt.

Die Kräfte, die Mond und Erde zusammenhalten, werden heute schwächer. Jahr für Jahr entfernt sich der Mond um circa 3,7 Zentimeter. In etwa einer Milliarde Jahren wird sein Einfluss so schwach sein, dass er die Erdachse nicht mehr stabil halten kann und die Erde zu taumeln beginnt. Und in einigen Milliarden Jahren wird unser Heimatplanet seinen Begleiter ganz verlieren.

Leben

Die Gezeiten wirkten bei der Evolution des Lebens als Beschleuniger, weil sie für eine ständige Durchmischung der Nährstoffe und Mineralien (in Sedimenten vom Land und aus dem Meer) sorgen. Dies war eine wichtige Voraussetzung, dass sich der Reichtum an Lebensformen im Meer entwickeln konnte. Ohne Mond wäre wohl alles langsamer gegangen. Die Gezeiten waren sicher auch bedeutsam für die Tatsache, dass sich das Leben aus dem Meer zuerst auf den Stränden und dann über das eigentliche trockene Land ausbreitete.

Offenbar beeinflusst die Anziehungskraft des Mondes sogar den Wasserdurchlauf im Inneren der Bäume, also den rhythmischen Austausch von Wasser zwischen den lebenden Zellen des Holzes und dem toten Gewebe aus abgestorbenen Zellwänden. Der Durchmesser der Baumstämme nimmt mit der Periode des Mondumlaufs um bis zu mehrere Zehntel Millimeter zu und ab.

Das sichtbare Mondlicht ist zwar ein Nichts im Vergleich zur Sonnenstrahlung. Selbst in hellsten Nächten bringt es der Mond auf nur 0,25 bis 0,5 Lux (ein Lux entspricht etwa der Leuchtkraft einer Kerze); die Sonne schafft bei klarem Himmel leicht 100 000 Lux. Trotzdem übt Mondlicht offensichtlich eine starke rhythmische Wirkung auf Pflanzen und Tiere aus. Dabei unterscheidet man fünf Hauptrhythmen des Mondes: Vollmond, Neumond, Erdferne des Mondes, auf- und absteigender Mond.

Pflanzen haben die stärkste Abhängigkeit, weil sie am stärksten auf äußere Zeitgeber reagieren. Während die eine Pflanzenart stärker auf den Vollmond- oder Neumondrhythmus anspricht, reagieren andere stärker auf den auf- und absteigenden Mond. Eine der ersten Aufgaben des Nervensystems primitiver Organismen war es, die Lichtreize der Umwelt zu verarbeiten. Zu ihnen gehört neben dem Tag-und-Nacht-Rhythmus auch der monatliche Lichtwechsel des Mondes. Daher könnte lunear beeinflusstes Verhalten auch bei höheren Tieren – und vielleicht sogar beim Menschen -ein Überbleibsel aus der Evolution des Nervensystems sein.

Bei etwa 1000 heute lebenden Tierarten wurden Mondrhythmen wissenschaftlich nachgewiesen. Viele Organismen haben ihr Verhalten bzw. ihre Lebensorganisation im Laufe der Evolution in der Weise an Gezeiten und Mondphasen angepasst, dass sie die äußeren Veränderungen durch physiologische Prozesse sozusagen vorwegnehmen. Vor allem im Ozean ist eine Orientierung an den Mondrhythmen weit verbreitet. So schlüpfen und schwärmen beispielsweise Wattwürmer ausschließlich bei Voll- und Neumond, wenn sich das Wasser weit zurückzieht, wobei das Mondlicht nachgewiesenermaßen als Signal dient. Mondzyklisches Verhalten gibt es auch bei höheren Meeresorganismen: Bei Ährenfischen findet z. B. die Fortpflanzung (Ablaichen und Befruchten) und das Ausschlüpfen der Jungen nur bei einer Springflut (s. o.) statt. Meeresschildkröten legen ihre Eier bei Vollmond (selbst wenn er wegen Wolken nicht zu sehen ist) ab, wenn der höchste Wasserstand herrscht, da dann der anstrengende Weg an Land und wieder zurück ins Meer weniger weit ist.

Ein eindrucksvolles Beispiel ist auch der Regenwurm, der einen Jahres- und einen Tagesrhythmus hat und am stärksten bei Neumond – mit einem Nebenmaximum bei Vollmond – tunnelt , und wenn der Mond im Tagesverlauf am tiefsten am Horizont steht. Die Frage ist immer, ob die Rhythmen exogen sind, also Reaktionen auf periodisch wechselnde Umwelteinflüsse, oder endogen, also von den Organismen hervorgebracht (angeboren) sind. Zumeist ist die innere Uhr auf äußere Auslöser oder Zeitgeber angewiesen, und diese exogene Rhythmik ist wieder endogen abgesichert.

Mensch

Bisher können die weitaus meisten wissenschaftlichen Studien keinen Einfluss der Mondphasen auf den Menschen belegen. Schweizer Forscher haben aber jetzt entdeckt, dass der Vollmond trotz seiner relativ geringen Lichtintensität Schlafstörungen verursachen kann. Es könnte sogar ein Zusammenhang zwischen den Mondphasen und der Schlafdauer bestehen. In Nächten kurz vor dem Vollmond gingen Menschen später zu Bett und schliefen weniger. Das gelte kulturübergreifend und für Stadt- und Landbewohner. Der Spiegel des Müdigkeitshormons Melatonin war in den Untersuchungen erniedrigt, die Tiefschlafphasen um 30% reduziert. Auch subjektiv gaben die Probanden an, schlechter geschlafen zu haben.

Festgestellte Korrelationen zwischen Beobachtungen sind jedoch kein Beweis für ursächliche Anhängigkeiten. Letztere können nur dingfest gemacht werden, wenn sich auch die Mechanismen angeben lassen, über welche der Mondzyklus biologische Vorgänge auf der Erde beeinflussen kann. Über die Ursache einer eventuellen Synchronisation zwischen Schlaf und Mondphasen kann aber nur spekuliert werden. Vermutlich sind die Muster eine angeborene Anpassung, die es unseren Vorfahren ermöglichte, vom natürlichen Abendlicht während bestimmter Mondphasen zu profitieren. Die Angehörigen der Toba/Qom, einer indigenen Bevölkerungsgruppe in Südamerika, haben berichtet, helle Mondnächte seien früher zum Jagen und Fischen genutzt worden.

Es könnte auch sein, dass die Netzhaut bei Vollmond empfindlicher ist als bei Neumond. Dieses Phänomen wurde bei Guppys festgestellt, könnte aber bei allen Wirbeltieren, also auch beim Menschen, auftreten, wie manche Forscher meinen. Anscheinend variieren auch die Empfindlichkeiten der Augen für die Farben Orange und Hellgrün sowie die Harnsäurewerte mit den Mondphasen.

Der Menstruationszyklus dauert im Schnitt 28 bis 30 Tage und entspricht so in etwa dem auf die Erde bezogenen Umlauf des Mondes, d. h. der Zeit zwischen zwei gleichen Mondphasen (z. B. von Neumond zu Neumond; synodische Messung), die etwa 29,5 Tage beträgt. [Die siderische Messung des Mondumlaufs orientiert sich an der Position des Trabanten vor dem Sternenhimmel. Sie misst die Zeit, die er benötigt, um zweimal hintereinander an einem bestimmten Stern vorbeizuziehen (circa 27,3 Tage).]

Nach neuesten Untersuchungen könnte es tatsächlich einen Zusammenhang zwischen dem Beginn des Zyklus und den Mondphasen geben. Allerdings währt eine solche synchrone Phase in den meisten Fällen relativ kurz und tritt nur unter besonderen Bedingungen auf: Nur wenn der Menstruationszyklus länger als 27 Tage dauert, bleibt er für eine Weile entweder mit Vollmond oder Neumond synchron. Aus den Untersuchungen ging auch hervor, dass Schwangerschaften bei einer Zykluslänge von 29,5 Tagen (entspricht dem synodischen Mond; s. o.) wahrscheinlicher sind.

Dabei spielt wohl auch die Schwerkraft eine Rolle – auch wenn das Mondlicht der wichtigste Zeitgeber ist. Ein Zusammenhang zwischen Mond und Menstruation war nämlich besonders oft in jenen Jahren zu beobachten, in denen Sonne, Mond und Erde auf ungefähr einer Linie lagen und der Mond der Erde am nächsten war, beispielsweise zuletzt 1997 und 2015.

Der Einfluss des Mondes auf den Menstruationszyklus scheint aber insgesamt eher schwach zu sein. Bis heute wurde kein Nachweis dafür erbracht, dass der Zyklus von überdurchschnittlich vielen Frauen exakt mit dem Mondrhythmus zusammenfällt. Einige Forscher mutmaßen zwar, dass der Menstruationszyklus einst tatsächlich an den Mond gekoppelt war, aber durch den modernen Lebensstil (z. B. Einfluss von Kunstlicht) verloren gegangen sei. Viele Wissenschaftler zweifeln aber grundsätzlich eine biologisch relevante Beziehung zwischen Menstruationszyklus und Mondphasen an und gehen allein von einem endogenen Rhythmus aus. Die ungefähre zeitliche Übereinstimmung wäre also reiner Zufall. Schließlich haben auch Mäuse und andere Säuger ganz verschiedene Fruchtbarkeitszyklen.

Im Laufe der Geschichte wurde dem Mond oft eine geheimnisvolle Wirkung zugeschrieben. Der zunehmende Mond soll fördern, was wächst und gedeiht, und der abnehmende Mond hemmen und vernichten, was unwert ist und verschwinden muss. Noch im ausgehenden 18. Jahrhundert versprachen „Monddoktoren“ Heilung mit Hilfe des Mondlichts, das sie auf die betroffenen Körperteile des Erkrankten scheinen ließen. Auch heute noch hat der Glaube an die Kräfte des Erdtrabanten nichts von seiner Faszination eingebüßt. Die moderne Mond-Esoterik bedient ein Bedürfnis nach Orientierung besonders bei Themen, die sich der Kontrolle und Berechenbarkeit ansonsten weitgehend entziehen.

Vom naturwissenschaftlichen Standpunkt ist zu sagen, dass die Mondkräfte vernachlässigbaren Einfluss auf uns haben. Es ist mittlerweile wissenschaftlich bewiesen, dass an Vollmond nicht mehr Kinder geboren werden als sonst, oder dass nicht mehr oder Schlimmeres (wie Unfälle, Verbrechen) an Vollmond-Tagen geschieht. Es war oft nur der subjektive Eindruck, der zu solchen Behauptungen führte – ein Problem der selektiven Wahrnehmung der Realität. Auch Schlafwandeln tritt nicht, wie behauptet, abhängig von der Mondphase auf. Es gibt zwar Hinweise, dass Schlafwandler auf Licht zusteuern, doch das kann in Städten auch die Leuchtreklame sein, und nicht unbedingt der Mond.

Durch die Gravitation des Mondes schwankt nach neuesten Messungen unser Gewicht um 19 Milligramm, also eigentlich nichts, was eine Wirkung verursachen könnte. Forschern am CERN in der Nähe von Genf (Schweiz) fielen bei ihren Kollisionsexperimenten minimale, aber doch störende Einflüsse (Energieschwankungen) auf, die genau der Kurve der Erd-Gezeiten folgten. Sie stellten fest, dass durch die winzigen Gravitationsschwankungen Neutronen schwerer oder leichter werden. Neutronen gibt es auch in unseren Zellen!

Da in unserem Nervensystem winzige Mengen Gleichstrom fließen, können elektromagnetische Felder die elektrische Leitfähigkeit in den Nerven unseres Gehirns stören und z. B. die Reizschwelle für die Auslösung von Nervenimpulsen verändern. Das irdische Magnetfeld ändert sich je nach Mondstand – allerdings nur um eine Winzigkeit. Unser Nervenkostüm ist in der Lage, auf diese Schwankungen zu reagieren, da Verstärkerknoten in unserem Nervengewebe die Aktivität elektrischer Impulse erhöhen können. Erwiesenermaßen reichen schon minimalste Ausschläge des Magnetfelds aus, um Menschen in gereizte Stimmung zu versetzen,

Der Mond, schrieb der englische Dichter Lord Byron, beherrsche die Narren, die Flut der Meere, das Hirn vernünftiger Wesen und manchmal auch ihr Herz. Das Wort „launisch“ stammt von „luna“.

REM

Realität

Zu den Schlüsselerlebnissen des Menschen gehört auch die Verunsicherung über das, was eigentlich „wirklich“, also Realität ist. Was sehen wir, wenn wir die Welt betrachten? Erkennen wir sie so, wie sie tatsächlich ist, oder konstruiert unser Gehirn lediglich ein Abbild von ihr? Oder sehen wir gar nur eine Scheinwelt, gaukelt uns unser Gehirn also nur eine Realität vor?

Der Skeptizismus, eine philosophische Richtung, die einen Ursprung bei den Vorsokratikern, aber auch bei Sokrates selbst und den Sophisten hat, stellt unser Wissen von der Außenwelt grundsätzlich in Frage. Wir verfügen über kein direktes und belastbares Wissen über unsere Außenwelt, können uns also nicht sicher sein, dass wir nicht nur in einer Scheinwelt leben und einer generellen Täuschung unterliegen. Für die Vertreter des Idealismus gibt es eh keine Dinge unabhängig von unserem Geist. Die Wirklichkeit ist nur, das, wodurch sie uns erscheint. Diese extrem radikale und höchst umstrittene erkenntnistheoretische Position wurde und wird nur von wenigen Denkern vertreten, beispielsweise dem irischen Philosophen George Berkeley (1685-1753). Die Welt, so seine mutige These, verschwinde augenblicklich, sobald niemand mehr ihrer gewahr werde. „Esse est principi“ („Sein ist Wahrgenommenwerden“) lautet sein berühmtes Diktum.

Der erkenntniskritische Idealismus führt unweigerlich zum Solipsismus, dessen Vertreter behaupten, die Welt sei eine reine Konstruktion des Geistes, und eine unabhängige Wirklichkeit existiere nicht. „Wir sind die ultimative Maschine, um Realität zu schaffen.“ (Rodolfo Llinas, Neurowissenschaftler) Streng logisch genommen kann man diese Position nicht widerlegen, da sie alles – jeden Sinneseindruck und jede Erfahrung – zu einer Illusion erklärt. Auch für die buddhistische Schule Cittamatra sind Raum und Zeit nur abstrakte Gedankengebilde. Sobald die Wahrnehmung eines Phänomens verschwindet, ist es nicht mehr vorhanden. Da aber mein Bewusstseinsstrom mit dem der anderen Menschen verwoben ist, provoziert das die Erscheinung einer gemeinsamen externen Welt, trotzdem ist diese Welt Illusion.

Viele Philosophen oder philosophierende Wissenschaftler betonen heute, dass gesichertes Wissen über die bewusstseinsunabhängige Außenwelt prinzipiell unmöglich ist. Die Frage kann daher nicht sein, ob ich nachweisen kann, dass es eine unabhängige Welt gibt, sondern nur, ob es plausibel ist, von ihrer Existenz auszugehen.

Der Materialismus geht von der Tatsache aus, dass keine reproduzierbaren Daten für eine globale Täuschung vorliegen. Es muss also irgendetwas Stoffliches geben. Und daher darf eine von uns unabhängige Außenwelt angenommen werden. Wozu haben wir denn unsere Sinnesorgane, wenn es außerhalb unseres Selbst nichts geben sollte, das sinnlich wahrnehmbar ist? Sobald man neben der „Welt der Erscheinungen“ aber von der Existenz einer bewusstseinsunabhängigen Außenwelt ausgeht, sollte auch Wissen über die Außenwelt durchaus möglich sein.

Auch für die Anhänger des Realismus existiert eine objektive Wirklichkeit unabhängig von uns. Materie, Raum und Zeit werden als reale und von Erkenntnis- und Bewusstseinsprozessen völlig unabhängige Kategorien angesehen, die wir als objektive Beobachter quasi von außen her erkennen können. Der „kritische Realismus“ schränkt allerdings ein, dass die Erscheinungen der Welt nicht unmittelbar eingesehen und verstanden werden können.

Konstruktivismus

Wir alle verhalten uns im Alltag wie naive Realisten. Wir nehmen wie selbstverständlich an, dass die äußere Welt dem Bild entspricht, das uns unsere subjektiven Sinneseindrücke, aufgenommen etwa über druckempfindlichen Tastsensoren in den Fingerspitzen oder Sehsinneszellen im Auge, von ihr liefern. Was wir haben, ist jedoch letztlich nur die Gewissheit über diese Sinnesdaten. Kein einziges Atom aus unserer Umwelt gelangt aber ins Gehirn. Vielmehr verlaufen Aktionspotenziale von den Sinneszellen über viele Stationen in ein bestimmtes Hirngebiet, lösen dort weitere Nervenaktivität aus und werden mit anderen Impulsen zusammengeschaltet. Auf jede Nervenzelle mit „Außenkontakt“ kommen schätzungsweise 100 000 weitere, die nur mit anderen Neuronen, aber nicht mit der Umwelt kommunizieren.

Es drängt sich der Verdacht auf, dass die Wirklichkeit, die wir erleben, durch die Aktivität unseres zentralen Schaltorgans erzeugt wird. Sie besteht also aus nichts weiter als elektrischen Signalen, interpretiert von unserem Verstand. Jedes Gehirn konstruiert sich so sein Bild von der Welt. In der Erkenntnisphilosophie wird daher die Palette von Theorien, die die Trennung von Erkennenden und zu Erkennendem, zwischen Subjekt und Objekt, aufheben, als Konstruktivismus bezeichnet. Der Akt des Erkennens beeinflusst stets auch Art und Inhalt des Erkannten. Psychologen und Neurowissenschaftler sammelten inzwischen zahlreiche Belege dafür.

Im Gegensatz zum Solipsisten sagt der radikale Konstruktivist: Es mag eine bewusstseinsunabhängige Welt geben (Realismus), aber wir haben keinen Zutritt zu ihr. Es gibt keine wahrnehmbare Realität, keine Wirklichkeit, die wir von außen betrachten und analysieren können. Die Welt, wie wir sie sehen, ist daher eine vom Gehirn konstruierte Wirklichkeit, eine mentale Scheinwelt. Der Hirnforscher Antonio Damasio spricht gar von einer „geistigen Multimedia-Show“, zu der unsere Neurone den Strom der inneren und äußeren Reize verarbeiten. Über die Existenz einer objektiven Wirklichkeit vermögen wir nichts auszusagen, geschweige denn, sie zu beweisen.

Für uns ist also nur eine subjektive Realität wahrnehmbar. Das, was wir für die Wirklichkeit halten, gibt es eigentlich gar nicht – jedenfalls nicht in der von uns wahrgenommenen Form, meinte auch der verstorbene Neurowissenschaftler Francis Crick. Die Welt – ein Hirngespinst? Wissen und Erkenntnis nicht Abbildungen der Realität, sondern reine Konstrukte? Der Radikale Konstruktivismus gehört jedenfalls zu den einflussreichsten Denkschulen der letzten Jahrzehnte, rief aber auch Kritiker auf den Plan. Sie bemängeln die theoretischen Grundlagen und weisen auf logische Widersprüche hin.

Auch die Vertreter des Gemäßigten Konstruktivismus halten es für sehr wahrscheinlich, dass es eine äußere Welt gibt, eine Welt außerhalb unseres Bewusstseins. Sie ist nicht lediglich in unseren Köpfen, wenn wir sie erschaffen – sie ist wirklich da draußen, zugleich mit allen ihren möglichen Auswirkungen. Aber die äußere Welt ist nicht so, wie wir sie wahrnehmen und erleben, sondern sie erscheint uns lediglich in der Art und Weise, wie wir sie interpretieren.

Die Informationen über die äußere Realität (den „Input“) erhalten wir über Rezeptoren, unsere Sinnesorgane. Über viele Prozesse konstruiert unser Gehirn daraus ein Gesamtbild der Außenwelt, wobei der größte Teil der Sinnesinformationen ausgemustert wird. Das schließliche Abbild der Wirklichkeit wird auch von unserer Bedürftigkeit und unserem Interesse beeinflusst – und ist nie frei von Gefühlen. Erst in diesem komplexen Prozess von Filtern und Gewichten, Denken und Fühlen entsteht unser Weltbild.

Immanuel Kant argumentierte im 18. Jahrhundert, das Chaos der uneingeschränkten sensorischen Eindrücke bliebe immer sinnlos, wenn es nicht durch bereits vorhandene Vorstellungen und „Überzeugungen“ eine Struktur erhielte. Er postulierte, dass der menschlichen Erkenntnis apriorische Denkformen der Anschauung (z. B. Zeit und Raum), des Verstandes (z. B. Ursache und Wirkung) und der Vernunft vorgegeben seien. Sie ermöglichten überhaupt erst Erfahrungserkenntnis – und formten und begrenzten zugleich den Erkenntnisbereich. Anders als mit Hilfe und im Rahmen dieser Strukturen können wir demnach überhaupt nichts erfahren, nichts über die Welt erkennen; anders als räumlich, zeitlich und kausal geordnet kann unsere Erfahrung gar nicht sein. Unseren begrenzten Fähigkeiten, die Welt zu erklären, entspricht der uns vertraute Erfahrungsbereich (der sog. Mesokosmos), der sich nur auf sehr begrenzte Regionen der Raumzeit erstreckt und auch dort nur sehr punktuell ist. Unsere Wahrnehmung und Erfahrung, unser Erkennen und Wissen und die Art, wie wir wahrnehmen, erfahren, erkennen und wissen ist demnach bestimmt durch die Struktur unseres Erkenntnisvermögens.

Wenn diese Grundstruktur nichts mit der Struktur der eigentlichen Realität zu tun hat, dann werden wir die eigentliche Realität (Kant nennt sie „Dinge an sich“) niemals erkennen, ja wir werden sie uns nicht einmal vorstellen können. Das, was wir als real in der Welt zu erkennen glauben, sind nach Kant ausnahmslos nur Erscheinungen. Wir erkennen die Dinge immer und mit Notwendigkeit nur so, wie sie uns erscheinen – und das heißt, bedingt durch unseren Erkenntnisapparat, also unsere Wahrnehmungs- und Denkfähigkeit. Über die wirklich realen „Dinge an sich“ sagt Kant kurz und bündig: Was sie sein mögen, weiß ich nicht und brauche es nicht zu wissen, weil mir doch niemals ein Ding anders als in Erscheinung vorkommen kann. Kants Argumentation hat ihre offenkundige Berechtigung, denn eine Erkenntnis aus der modernen Physik ist, dass man nicht sagen kann, wie die Dinge wirklich sind, sondern nur, wie sie uns erscheinen. (s. u.)

Die individuelle Wirklichkeit und die vom Bewusstsein unabhängige Realität sind also zwei verschiedene Dinge. Wir haben nur eine annähernde Beschreibung der Wirklichkeit, die viel reicher ist als unser Bewusstsein von ihr. Aus diesem Grund ist der kontinuierlich ablaufende Vorgang des bewussten Erlebens weniger ein Abbild der Wirklichkeit als vielmehr ein „Tunnel durch die Wirklichkeit“ (Kant).

Der Verhaltensforscher Konrad Lorenz, Kants zeitweiliger Nachfahre auf dem Königsberger Lehrstuhl, hatte als einer der ersten ab den 1940er Jahren die Kant’schen „Apriori“ ins „rechte Licht“ der stammesgeschichtlichen Anpassung gesetzt und die Evolutionstheorie von Darwin mit der Erkenntnistheorie Kants unter dem Namen Evolutionäre Erkenntnistheorie verknüpft, ausgebaut und diskutiert. Den „angeborenen Ideen“ entspricht demnach die genetisch übertragene Information über die Welt. Sie steckt also in unserem Erbgut, und somit auch in den Sinnesorganen, im Zentralnervensystem, im Gehirn.

Die Evolution hat unser Erkenntnisvermögen geprägt und bestimmt die Leistungen und Grenzen unseres Weltbildes. Eine exakte, vollkommene und umfassende Abbildung der Welt wäre biologisch nicht sinnvoll und nicht nötig. Die Hauptaufgabe des Gehirns ist es, dem Menschen die Orientierung und das Überleben in seiner spezifischen Umwelt – der natürlichen und der sozialen – zu ermöglichen. Zu seinen Aufgaben gehört sicherlich nicht, die wahre Natur der Dinge zu erkennen und die letzten kosmischen Wahrheiten zu entdecken.

Das Gehirn des Frosches nimmt nur das aus seiner Umgebung wahr, was für ihn interessant und wichtig ist: Das sind vor allem Wasseroberfläche, Beute und Feinde. Mehr ist biologisch nicht notwendig. Die Eigenart seiner Weltsicht ist in seiner Anatomie begründet. Jede einzelne Nervenbahn, die vom Auge zum Gehirn führt, ist mit vielen Sehzellen verbunden, so dass ein ganzes Muster übertragen wird. Das Auge spricht also in einer bereits gedeuteten Sprache zum Gehirn und gibt nicht nur eine mehr oder weniger exakte Kopie der Lichtverteilung in den Rezeptoren des Auges weiter.

Zum (Über)Leben in seiner Welt braucht auch der Mensch nicht diese Unmenge an Information, die die äußerst komplexe Umwelt bereithält. Sie würde sein Aufnahmevermögen völlig überfordern. Daher muss aus der Fülle der Informationen, die sein Gehirn erreicht, vieles für ein stimmiges Gesamtbild über Bord geworfen werden. Unser Zentralorgan entscheidet, was für uns in der jeweiligen Situation wichtig und was unwichtig ist, wobei persönliche Erfahrungen und Erinnerungen eine große Rolle spielen. Alles andere ist Interpretation.

Außerdem ergänzt unser Denkorgan nicht vorhandene Einzelheiten, die zu dem genetisch vorgegebenen Schema dazugehören. Wir merken es nicht einmal, so wir wir eben auch den Blinden Fleck in unserem Auge nicht sehen. Die aktuellen Sinnesreize sind also nur der Anlass für unser Gehirn, bewährte und gespeicherte Konstrukte aus dem Gedächtnis abzurufen und auch in einem verworrenen Bild bekannte Strukturen zu erkennen. Auf diese Weise halten wir ein kohärentes und stimmiges Weltbild (und Selbstbild) aufrecht.

Aus kleinen Stückchen Information und Erinnerung bauen wir uns also unsere Realität. Nach Heisenberg hängt das, was immer wir aussagen, von unserer Fragestellung ab, von unseren Entscheidungen, was und in welcher Weise wir beobachten. Diese Beobachtungen beruhen wiederum auf dem Inhalt unserer Gedanken, diese auf unseren Erwartungen, unserem Bedürfnis nach Kontinuität.

Die Welt, in der wir bewusst leben, ist also nicht die Wiedergabe unserer realen Umwelt, sondern vor allem ein Produkt unseres (stammesgeschichtlichen und individuellen) Gedächtnisses und unserer Erfahrung. Was wir tatsächlich wahrnehmen, sind die Modelle, die unser Gehirn aus einer Kombination von sensorischen Informationen und Apriori-Erwartungen von der Welt kreiert. Beide, sowohl sensorische Information als auch Erwartungen, sind für diesen Prozess wesentlich. Wenn keine sensorische Information zur Verfügung steht, füllt unser Gehirn die Lücke einfach aus. Unsere Modelle von der Welt sind also nicht die Welt selbst, sie decken sich nicht mit der Realität, aber für uns sind sie so gut wie die Welt.

Nach dem Hirnforscher Gerhard Roth gibt es keinen Zweifel daran, dass es für uns bzw. unser Gehirn prinzipiell unmöglich ist, zu überprüfen, ob und inwieweit die Konstrukte unseres Denkorgans mit den Verhältnissen in der bewusstseinsunabhängigen Welt („Realität“) übereinstimmen: Jede Wahrnehmung ist eine Hypothese. Das widerspricht jeder Art von erkenntnistheoretischem Realismus. Allerdings haben sich die Konstrukte des Gehirns in aller Regel in der Stammesgeschichte offenbar gut bewährt, da die Art, wie das menschliche Gehirn seine Welt konstruiert, kaum von der Art abweicht, wie dies andere Wirbeltiere seit 250 Millionen Jahren tun. Hinzu kommt die Bewährung über die individuelle Erfahrung, die überwiegend unbewusst und nach Versuch und Irrtum geschieht. Wir konstruieren also als bewusstes Ich die Welt nicht nach unserem Geschmack. Das geht schon deshalb nicht, weil auch dieses Ich ein Konstrukt des Gehirns ist.

Moderne Physik

Zu Beginn des 20. Jahrhunderts entdeckte man, dass Wirklichkeit mehr und anders ist, als man bisher dachte. Sie lässt sich nicht durch sinnliche Wahrnehmung erfassen, sondern wird letztlich bestimmt durch die Gesetze der Quantenmechanik. Diese Welt im Kleinsten ist nicht unsere Welt, sie ist total anders! Die alte Vorstellung, dass wir uns die Welt als dingliche Wirklichkeit denken können, ist nur in mesokosmischen und makrokosmischen Systemen möglich.

Bei der Suche nach verlässlicher Erkenntnis haben sich naturwissenschaftliche Test- und Messmethoden bewährt. Überaus befremdlich ist für uns, dass eine Messung in der mikroskopischen Welt nicht Aufschluss gibt über Eigenschaften, die ein Objekt einfach hat, ob man es nun beobachtet oder nicht. So etwas erwartet man von einer realistischen Theorie. Albert Einstein und andere Realisten hatten noch gefordert, die Physik müsse ein geistiges Abbild der objektiven Realität zustande bringen – und sei es noch so unvollkommen. Antirealisten wie Nils Bohr fanden, solche Abbilder seien zum Scheitern verurteilt. Die Forscher sollten sich darauf beschränken, empirische Vorhersagen zu machen und zu überprüfen. Es gelang schließlich, die Annahme, Objekte hätten Eigenschaften unabhängig von der Beobachtung, experimentell zu widerlegen, während die Quantentheorie bei solchen Experimenten voll bestätigt wurde. Man kann in diesem Sinne paradoxerweise sagen, die Quantentheorie sei unrealistisch, aber richtig.

Die meisten Menschen haben die naive Vorstellung, die auch unter Naturwissenschaftlern weit verbreitet ist, dass sich Wissen und Realität entsprechen. Aber nicht nur das ist real, was dann wirklich Wissen wird, sondern auch das, was man wissen kann. Die Quantenphysik spricht von potenziellem Wissen. Die Quantenphysik zwingt uns also, den Realitätsbegriff drastisch zu erweitern. Wirklichkeit ist Potenzialität. Die Verwirklichung der Möglichkeiten geschieht durch eine Messung, und über deren Ausgang macht die Quantentheorie Wahrscheinlichkeitsaussagen.

Als Gefangene unserer neuronalen Architektur sind wir unfähig, ein unmittelbares Verständnis für die in der modernen Physik postulierten Phänomene zu entwickeln. „Die Realität können wir uns nicht vorstellen“, sagt Gerhard Roth. Aber: Man „kann doch etwas über die bewusstseinsunabhängige Welt aussagen, man muss es sogar, wenn man z. B. Neurobiologe ist. Ich muss mir aber klar darüber sein, dass ich mich immer nur in Umschreibungen, bildhaften Vergleichen, Metaphern ausdrücken kann.“

Eine solche Metapher sei beispielsweise die Wellenlänge, die man braucht, wenn man den Sehvorgang untersuchen will. So sagt man, Licht von 400 Nanometern Wellenlänge trifft auf die Netzhaut und erzeugt auf sehr komplizierte Weise in der Großhirnrinde schließlich den Eindruck blauviolett. Wir sind davon überzeugt, dass es dieses blauviolette Licht wirklich gibt, und es nicht nur eine Erfindung unseres Gehirns ist.

Erwin Schrödinger stellt in seinem Buch „Mind and Matter“ fest, dass die Beschreibung der Wirklichkeit als Wellen und Teilchen der bisher gelungenste Versuch ist, die physikalische Wirklichkeit als Bilder zu verstehen. Diese Bilder, die wir jetzt haben, sind aber nicht die einzig Möglichen. Wir erfinden immer wieder neue Realitätsbilder. Sie verdrängen die alten Ideen niemals völlig, sondern ersetzen sie großenteils durch Konzepte, die besser funktionieren und die Natur besser beschreiben. Dann kommt die nächste Umwälzung und wirft alles über den Haufen. Und wir sind jedes Mal wieder überrascht, dass das alte Denken auf den gewohnten Bahnen einfach versagt.

Manche Dinge können wir uns anschaulich vorstellen, manche nicht. Auch Einsteins abstrakte, vierdimensionale Geometrie ließ sich nur schwer veranschaulichen. Vorstellbar wurde sie durch mathematische Beziehungen. Diese überdauern, während die alten Realitätsbegriffe verblassen. Auch die Quantenfeldtheorie ist ein mathematisches Gebilde. Sie beschreibt das Verhalten von Quarks, Myonen, Photonen und diversen Quantenfeldern, die ihre Realität aus den Naturgesetzen beziehen, in denen sie nur als Begriffe auftreten und zur Ableitung von experimentell überprüfbaren Aussagen dienen. Nach dem Teilchenphysiker Henning Genz ist den Gesetzen der Physik eher Realität zuzusprechen als den Objekten, deren Existenz sie behaupten.

Aber auch naturwissenschaftliche Aussagen können nie den Anspruch erheben, objektiv wahr zu sein. Unsere Theorien sind letztlich – so erfolgreich sie auch die Natur beschreiben – mathematische Modelle, also Konstrukte des menschlichen Geistes, die zwar immer weiter verfeinert werden, aber nie die Natur ganz erfassen können. Das wissen die Philosophen des Ostens schon seit Jahrtausenden. Auch der theoretische Physiker Leonard Susskind ist davon überzeugt, dass wir über die Realität wohl keine endgültigen Aussagen machen können – wobei die naive Realität von Billardkugeln und Zeigerstellungen nicht berührt wird. Susskind fordert daher die Trennung von dem Wort „Realität“. Der Begriff störe; er beschwöre Dinge herauf, die uns kaum helfen. Das Wort „reproduzierbar“ sei nützlicher als „real“. Der Begriff Realität habe mehr mit Biologie und Evolution zu tun als mit Physik, er betreffe eher unsere biologische Hardware.

Die meisten Physiker nehmen aus diesem Grund eher eine sog. instrumentelle Haltung ein und verneinen, dass physikalische Theorien die Welt widerspiegeln sollen. Für sie stellen Theorien bloß Instrumente dar, mit denen sich experimentelle Vorhersagen machen lassen. Vielen Physikern genügt das. Sie sprechen daher fast nie von Realität. Werden sie mit dem Begriff Realität konfrontiert, wollen sie ihn pragmatisch verstehen. Es geht ihnen also nicht darum, zu verstehen, was Realität letztlich ist, sondern darum, was wir meinen, wenn wir diesen Begriff verwenden.

Dennoch sind die meisten Wissenschaftler überzeugt, dass ihre Theorien zumindest einige Aspekte der Natur abbilden, wenn Experimentatoren eine Messung durchführen. Die physikalische Realität ist, wie sie ist, und verhält sich, wie sie will – und wir lernen mühsam, unsere mathematischen Werkzeuge an ihr ungebärdiges Verhalten anzupassen. Mit jeder Vervollkommnung des mathematischen und technischen Werkzeugs lernen wir aber auch neue Aspekte der Wirklichkeit kennen.

REM

Entfernungsmessung im Universum

Entfernungen zu messen zählt in der Astronomie zu den schwierigsten Aufgaben überhaupt, da wir auf eine flächig erscheinende Himmelssphäre hinausschauen. Um die dritte Dimension des ausgedehnten Universums zu schließen, wenden die Astronomen unterschiedliche, einander überlappende Methoden an. Dabei arbeiten sie sich durch das Aneinanderreihen der Verfahren stufenweise in die Milliarden von Lichtjahren überspannenden Weiten des Weltalls vor, gewissermaßen von Leitersprosse zu Leitersprosse. Die Fachleute sprechen daher von einer „kosmischen Entfernungsleiter“.

Trigonometrische Parallaxe

Die erste Stufe zu den Sternen zu erklimmen ermöglichte den Astronomen die Parallaxen-Methode, ein Verfahren, das auf rein geometrischen (also mathematischen) Grundlagen beruht. Es handelt sich dabei um das trigonometrische Anpeilen eines entfernten Punktes oder Objektes aus verschiedenen Richtungen. Unter parallaktischer Verschiebung (kurz: Parallaxe) versteht man die scheinbare Positionsverschiebung eines Zielobjekts auf Grund des Standortwechsels eines Beobachters. Dies ist auch der Winkel zwischen den Geraden, die von den zwei Standorten auf das Objekt gerichtet sind. Der Abstand der beiden Standorte, vom beobachteten Objekt aus gesehen, ist die „Basislinie„.

Ein leicht nachzuvollziehendes Beispiel für eine parallaktische Verschiebung ist der sog. „Daumensprung„. Hält man einen hochgestreckten Finger vors Gesicht und schließt abwechselnd ein Auge, springt der Finger vor dem Hintergrund scheinbar hin und her, da er den Augen viel näher ist als die Umgebung. Je näher der Finger vor dem Gesicht ist, desto größer wird die Verschiebung ausfallen. Wenn man dann die Entfernung zwischen den Augen (Basislinie) voneinander misst (circa 6,5 Zentimeter) und die Größe des Winkels bestimmt, um den sich der Finger beim Umschalten von einem Auge auf das andere Auge verschiebt (sie beträgt bei ausgestrecktem Arm und durchschnittlicher Armlänge etwa sechs Winkelgrad), findet man durch die Konstruktion eines Dreiecks heraus, wie weit der Finger von den Augen entfernt ist.

Die Parallaxenverschiebung naher Objekte nutzt auch unser Gehirn, um Abstände einzuschätzen. Um die Entfernungen von Himmelskörpern mit der Parallaxe zu bestimmen, kann man zwei Beobachtungspunkte auf der Erdoberfläche verwenden. Auf diese Weise konnte erstmals die Distanz zum Mond und zu nahen Planeten gemessen werden. Frühere Astronomen entdeckten bei der Venus noch eine andere Möglichkeit zur Entfernungsbestimmung: Sie maßen bei ihren auf der Erde zu beobachtenden seltenen Durchgängen vor der Sonne die Parallaxe relativ zum Sonnenrand. So erbrachten sie auch erste Werte für den Radius der Erdbahn um die Sonne.

Um die Entfernung von Sternen zu berechnen, müssen die Astronomen als Parallaxe zwei Punkte auf der irdischen Umlaufbahn um die Sonne nehmen. Der Stern entspricht dabei dem Finger, die Position der Erde auf der Sonnenumlaufbahn den Augen. Die maximal möglich Basislinie für die Messung ergibt der Durchmesser der Umlaufbahn, der seinerseits mit den Parallaxen der Planeten im Sonnensystem ermittelt wurde. Er beträgt zwei Astronomische Einheiten (AE), wobei eine AE dem Abstand der Erde von der Sonne (rund 150 Millionen Kilometer) entspricht.

Für die weiteren Berechnungen beobachten die Astronomen die Position des Sterns am Himmel, wenn die Erde auf entgegengesetzten Seiten ihrer Bahn um die Sonne steht, was Messungen nach sechs Monaten entspricht. Dabei erscheint die Position naher Sterne am Himmel geringfügig perspektivisch versetzt. Aus den Werten der parallaktischen Verschiebung lässt sich jetzt mittels einfacher Trigonometrie die Stern-Distanz errechnen. Mit dieser Messung konnte Friedrich Wilhelm Bessel erstmals 1838 die Entfernung eines Sterns bestimmen.

Damit hatten die Astronomen auch eine neues Entfernungsmaß an der Hand. Beträgt die Parallaxe eine Bogensekunde (1/3600 Winkelgrad), sprechen wir von einem Parsek (Abkürzung für Parallaxe von einer Bogensekunde). Ein Parsek entspricht einer Entfernung von rund 9,5 Billionen Kilometern (ca. 1013 km) oder 3,26 Lichtjahren. Ein Megaparsek (eine Million Parsek), wäre eine Strecke, die etwa dreißig Mal so groß ist wie der Durchmesser unserer Milchstraße: etwa 30 Trillionen Kilometer.

Die parallaktische Verschiebung fällt umso kleiner aus, je weiter der Stern von uns entfernt ist; sie nimmt umgekehrt proportional zur Entfernung ab. Nähere Objekte zeigen also eine größere Parallaxe als ferne. Bei dem mit 4,22 Lichtjahren nächsten Stern, Proxima Centauri, beträgt die Parallaxe lediglich eine dreiviertel Bogensekunde, etwa 1/5000stel Grad. Mit dieser Beobachtungsgenauigkeit könnte man bei einer Fliege, die in einem Kilometer Entfernung auf einer Blume sitzt, den Augenabstand messen. Teleskope auf dem Erdboden können heute gerade noch eine Parallaxe von 0.01 (1/100stel Bogensekunde) auflösen und so Entfernungen von 100 Parsek mit etwa 10% Genauigkeit bestimmen. Mit der Methode der parallaktischen Verschiebung lassen sich so die Entfernungen nur solcher Sterne bestimmen, die sich im Umkreis von etwa 300 Lichtjahren um die Sonne befinden.

Um die Parallaxen-Methode auch auf größere Distanzen ausdehnen zu können, startete die europäische Weltraumbehörde ESA 1989 den Astrometrie-Satelliten Hipparcos, der mit einem Auflösungsvermögen von 0,001 Bogensekunden den zugänglichen Entfernungsbereich um den Faktor 10 vergrößerte. 2013 wurde er von der ESA-Sonde Gaia abgelöst. Mit aktuellen Technologien lassen sich noch Parallaxen von Sternen bis in Entfernungen von Zehntausenden von Lichtjahren messen. Dadurch kommt ein Großteil der Milchstraßensterne in Reichweite. Bei Abständen zu Galaxien außerhalb der Milchstraße lassen sich die Parallaxenwinkel aber nicht mehr genau genug bestimmen. Dies erfordert andere Methoden, die man mit der Parallaxenmethode kalibrieren kann. Diese dient somit also als wichtige Grundlage für größere Abstandsmessungen, als „erste Leitersprosse“ auf dem Weg in den Weltraum.

Absolute Helligkeit

Die zweite Sprosse auf der kosmischen Entfernungsleiter ermöglichte die absolute Helligkeit eines Sterns. Diese kann man auch dann noch bestimmen, wenn ein Stern zu weit weg ist für eine Parallaxenmessung.

Das Hauptproblem war es, geeignete Sterne zu finden, deren Leuchtkraft gut bekannt ist und die hell genug waren, damit man sie auch noch in größeren Entfernungen eindeutig identifizieren konnte. Sie müssen eine einheitliche Helligkeit haben, oder ihre Helligkeit muss in einer festen Beziehung zu einer anderen , entfernungsunabhängigen Größe der Objekte stehen. Die Astronomen sprechen von Standardkerzen. Kennt man die Leuchtkraft einer weit entfernten Standardkerze, kann ihre Helligkeit mit hoher Genauigkeit umgerechnet und damit die kosmische Distanz des Sterns bestimmt werden.

Die Astronomen suchten also den Himmel nach weiter entfernten Sternen ab, von denen sie annehmen mussten, dass sie in Wirklichkeit ebenso hell leuchten wie die vorher direkt gemessenen sonnennahen Sterne. Dann verglichen sie deren auf der Erde gemessenen scheinbaren Helligkeiten mit denen der weiter entfernten. Da die Intensität einer Lichtquelle mit dem Quadrat der Entfernung abnimmt, würde uns bei zwei hinsichtlich der Leuchtkraft identischen Sternen in vier und acht Lichtjahren das Licht des vier Lichtjahre entfernten Himmelskörpers nicht doppelt, sondern vierfach so hell erscheinen. Umgekehrt würde die scheinbare Helligkeit des ferneren Sterns ein Viertel von der des näheren betragen.

Ursprünglich fand die Messung der Helligkeit über den Spektraltyp eines Sterns statt, denn die absolute Helligkeit eines Sterns ist eindeutig mit seiner Spektralklasse (gewissermaßen seiner Farbe) verknüpft. So konnten die Astronomen dank der über viel größere Distanzen messbaren Emissionslinien im Sternspektrum den Abstand dieser Sterne errechnen, wenn sie die Spektralklassen anhand von näheren Sternen geeicht hatten. Mittlerweile sind die Parallaxen von Tausenden von Sternen mit unterschiedlicher Genauigkeit vermessen worden, so dass es möglich ist, die Entfernungen verschiedener Sterne weit über die Milchstraße hinaus zu bestimmen.

Allerdings gibt es in der Sonnenumgebung keine Sterne, die so hell leuchten, dass man sie auch über wirklich kosmische Entfernungen hinweg sehen könnte. Daher liefert diese zweite Leitersprosse nur für Objekte in der Milchstraße und ihren Satellitengalaxien akzeptable Ergebnisse.

Cepheiden

Sehr erfolgreich werden heute die Cepheiden als Standardkerzen genutzt. Sie werden nach dem Prototyp des Sterns mit der Bezeichnung Delta im Sternbild Cepheus auch Delta-Cepheiden genannt. Es sind seltene, helligkeitsvariable Riesensterne mit teilweise der 100 000-fachen Leuchtkraft der Sonne, die noch in einer Entfernung von 130 Millionen Lichtjahren erspäht werden können. Sie pulsieren innerhalb weniger Wochen oder Tage periodisch, d. h. sie ändern ihren Radius (ihre Größe) und ihre Farbe aufgrund schwankender Brennphasen regelmäßig wie ein Uhrwerk. Die typischen Perioden reichen zwischen ein und über 130 Tage.

Die entscheidende Beobachtung war, dass die Periode des veränderlichen Sterns ein Maß für seine eigentliche Helligkeit ist. Sterne mit der gleichen Schwankungsdauer leuchten gleich hell. Die „Perioden-Leuchtkraft-Beziehung“ ist linear: Je heller ein Stern leuchtet, desto länger ist seine Periode. Findet man demnach zwei gleichgroße Cepheiden, die bei gleicher Pulsfrequenz verschieden stark leuchten, liegt es an der unterschiedlichen Entfernung.

Mit der Perioden-Helligkeits-Beziehung können wir generell die absolute Entfernung von jedem Cepheiden am Himmel berechnen, vorausgesetzt, dass wir wenigstens die Entfernung zu einem dieser Sterne kennen. Dazu nimmt man ein nahes Exemplar (man findet Cepheiden vor allem in den dünnen Scheibe der Milchstraße) und bestimmt dessen Entfernung mithilfe der Parallaxen-Methode. (Delta-Cephei beispielsweise hat eine Parallaxe von 3,77 Millibogensekunden und eine Periode von genau 5,366341 Tagen.) Dann misst man die Distanz zu einem weiter entfernten Cepheiden, indem man seine Pulsationsdauer misst und daraus die absolute Helligkeit ableitet. Aus der Differenz der scheinbaren und absoluten Helligkeit ergibt sich dann die Entfernung des Sterns.

Einige relativ nahe Cepheiden konnten an den Hyaden, einem Sternhaufen im Sternbild Stier, geeicht werden. Diese sind mit geometrischen Methoden gerade noch erreichbar. Es ließ sich ihre Entfernung bestimmen, die bei 156 Lichtjahren liegt. Dadurch ist der Abstand einiger Cepheiden von der Erde bekannt, und damit ihre tatsächliche Leuchtkraft.

In unseren nächsten Nachbarn im All, den Magellan’schen Wolken am Südhimmel, und auch noch im zwei Millionen Lichtjahre entfernten Andromeda-Nebel, der nächsten großen Spiralgalaxie, konnten weitere Cepheiden entdeckt und ihre Distanz von der Erde gemessen werden. Da Cepheiden hell strahlen, können die Astronomen mit ihnen auch die Entfernung weiter gelegener Galaxien verlässlich bestimmen. Je weiter man aber in den Raum blickt, umso schwieriger wird es, noch einzelne Cepheiden aufzuspüren und mit ausreichender Genauigkeit zu beobachten. Erst die hohe Empfindlichkeit des Hubble-Weltraumteleskops – das jenseits der störenden Erdatmosphäre arbeitete – hat es ermöglicht, Cepheiden in großen Distanzen von bis zu 65 Millionen Lichtjahren zu beobachten. (So machte man im Jahr 1995 Cepheiden in einer Galaxie des 56 Millionen Lichtjahre entfernten Virgo-Haufens aus.)

[Einige Forscher sind sich bis heute allerdings unsicher,, ob man die Cepheiden und ihr Umfeld richtig versteht bzw. ob diese eine wirklich präzise Entfernungsmessung erlauben. So driften die hellen Riesensterne oft in mit kosmischem Staub gefüllten Sternhaufen durchs All, was die Abschätzung ihrer Helligkeit verzerren könnte.]

In den ferneren Galaxien, jenseits der Entfernung von 65 Millionen Lichtjahren, lassen sich keine einzelnen Sterne mehr auflösen. Das bedeutet, dass die bewährte Cepheidenmethode bei ihnen nichts bringt. Wir benötigen also andere Verfahren bzw. andere Standardkerzen als Messhilfe. Das Problem ist allerdings, im Universum entsprechende Marker mit bekannter Leuchtkraft zu identifizieren.

Galaxien

Als Lösung bot sich die Leuchtkraft einer Galaxie an. Drei Methoden zu ihrer Bestimmung basieren auf bestimmten Eigenschaften von spiralförmigen und von elliptischen Galaxien:

Die Tully-Fisher-Relation besagt, dass die Rotationsgeschwindigkeit einer Spiralgalaxie mit ihrer Leuchtkraft korreliert. Je heller eine Galaxie strahlt, desto massiver scheint sie zu sein, und umso schneller muss sie rotieren, um stabil zu bleiben. Die Korrelation ist exzellent, wie die Beobachtung von Hunderten von Spiralgalaxien zeigt. Wir messen also einfach die Rotationsgeschwindigkeit und wissen so auch, wie hell die Galaxie ist. Dann messen wir die für uns sichtbare Strahlung. Der Unterschied, den wir durch das Entfernungsgesetz („Leuchtet eine Galaxie nur ein Viertel so hell wie eine zweite mit ansonsten ähnlichen Eigenschaften, so ist sie schätzungsweise doppelt so weit entfernt“ ) ermitteln, erlaubt es uns, ihren Abstand von uns zu messen – bei einer Unsicherheit von 10 bis 20%.

Für elliptische Sternsysteme gibt es eine ähnliche Beziehung: Die Sterne in den hellsten dieser Galaxien weisen einen größeren Bereich von Umlaufgeschwindigkeiten auf, haben also eine größere Geschwindigkeitsstreuung. Ein drittes Verfahren nutzt den Umstand, dass es mit zunehmender Entfernung immer schwieriger wird, einzelne Sterne in einer Galaxie zu erkennen. Aus der Stärke der Helligkeitsvariationen kann man auf die Entfernung schließen.

Viele astronomische Entfernungen wurden inzwischen bereits mittels dieser einfachen Beziehungen gemessen. Alle diese Verfahren lassen sich allerdings nur bis zu einer Entfernung von etwa 150 Megaparsek nutzen. Die Methoden versagen also vollkommen für sehr weit entfernte Sternsysteme, denn die Größen und Leuchtkräfte der Galaxien verändern sich im Laufe der kosmischen Entwicklung.

Supernovae Ia

Supernovae vom Typ Ia eignen sich ganz hervorragend als kosmische Standardkerzen. Sie ereignen sich in Doppelsternsystemen, in denen vermutlich nach und nach Materie eines ausgedehnten Sterns auf einen kompakten Weißen Zwerg übergeht.

Weiße Zwerge sind Sterne mit dem Radius der Erde und der Masse der Sonne. Es sind die heißen Kerne Roter Riesen, die übrig bleiben, wenn jene ihre Sternhülle abgeworfen haben. Sie bestehen im Normalfall im Innern aus heißer entarteter Materie (Materie in einem Zustand, der aufgrund quantenmechanischer Effekte von dem in der klassischen Physik üblichen abweicht) von extrem hoher Dichte, haben aber trotz hoher Oberflächentemperatur nur eine geringe Leuchtkraft.

Erreicht die Masse des Weißen Zwergs ungefähr 1,4 Sonnenmassen (Chandrasekhar-Limit), fusioniert sein Wasserstoff wie bei einer Wasserstoffbombe und der Stern kollabiert. Der Stern explodiert und leuchtet innerhalb einiger Stunden oder Tage sehr hell auf. Dabei kann er so hell wie 10 Milliarden Sonnen werden und ist darum noch in weiter Ferne sichtbar. Dann verblasst er binnen Wochen. Es ist also immer dieselbe kritische Masse, bei welcher der Kollaps einsetzt, dementsprechend auch dieselbe Energie, die frei wird. Die Kaskade physikalischer Prozesse läuft dabei stets mehr oder weniger gleich ab. Da also die Zündbedingungen, die maximale Helligkeit und die Zeitdauer bei allen Supernovae dieses Typs stets etwa gleich sind, eignen sich diese Phänomene sehr gut als himmlischer Maßstab.

Zunächst lieferten diese Verfahren lediglich relative Entfernungen. Um absolute Entfernungen zu erhalten, benötigten die Astronomen eine möglichst gute Eichung mit einer Supernova des gleichen Typs, deren Entfernung bekannt war. Die benötigte Kalibrierung lieferten dabei Cepheiden. Aufgrund detaillierter Beobachtung weiterer naher Supernovae des Ia-Typs mit den modernsten Teleskopen gelang es den Forschern, sie zu den zuverlässigsten kosmologischen Standardkerzen zu machen und damit zu einem wertvollen Werkzeug, um kosmische Entfernungen zu messen. Sobald das Licht einer Sternexplosion dieses Typs die Erde erreicht, können Astronomen auf Basis der gemessenen Helligkeit den Abstand der Quelle von der Erde bestimmen – einfach gemäß dem Gesetz, wonach die Helligkeit mit dem Quadrat der Entfernung zunimmt (s. o.).

1987 hatte eine Supernova in der Großen Magellan’schen Wolke unerwartet die Möglichkeit geboten, die kosmische Entfernungsskala zu überprüfen. Aus den gefundene Werten ergab sich eine Entfernung zu dieser Galaxie von etwa 169 000 Lichtjahren, was gut mit den Werten übereinstimmte, die mit klassischen Methoden (Cepheiden) gemessen wurden. Bei einer zweiten unabhängigen Methode wurde eine Entfernung von 160 000 Lichtjahren ermittelt. Dies ist – für astronomische Verhältnisse – eine hervorragende Übereinstimmung mit dem vorher ermittelten Wert.

1999 stellte man allerdings fest, dass die etwas helleren Sternexplosionen ein wenig länger leuchten. Die Ursache für die Dehnung der Lichtkurve ist die Expansion des Raumes. Die Astronomen mussten daher eine Beziehung zwischen der Helligkeit und der Form der Lichtkurve der Supernova berechnen und eine neue Eichung vornehmen, um zu genaueren Werten für die Entfernung zu kommen.

Supernovae vom Typ Ia liefern Ergebnisse mit halb so großer Unsicherheit wie Galaxien. Da sie extrem hell sind, werden Messungen von Entfernungen möglich, die bis zu 100mal weiter ins Universum hinausreichen als mit Cepheiden – rund 400 Megaparsek. In dieser Entfernung beträgt die Fluchtgeschwindigkeit bereits 30 000 km/s, die typischen Eigenbewegungen der Galaxien von 200 bis 300 km/s fallen also nur noch mit weniger als einem Prozent ins Gewicht. Es gelang den Astronomen sogar, die Entfernungen von Supernovae zu messen, die explodierten, als das Universum halb so alt war wie heute.

Allerdings sind Supernovae vom Typ Ia unvorhersagbar und selten. Sie ereignen sich in einer typischen Galaxie schätzungsweise nur einmal pro Jahrhundert, so dass es nötig ist, ständig weite Himmelsbereiche mit empfindlichen Teleskopen zu überwachen, um möglichst viele dieser Phänomene zu erfassen.

[Die Grundidee, dass alle Supernovae Ia genau dann explodieren, wenn sie 1,4 Sonnenmassen erreicht haben, lässt sich nach Meinung einiger Astronomen aber kaum noch generell aufrechterhalten. Die genauen Umstände einer derartigen Explosion ist nach neuen Studien komplizierter als gedacht. Danach saugt ein Weißer Zwerg in einem Doppelsystem von einem anderen Weißen Zwerg Masse ab, bis er schließlich in einer doppelten Detonation explodiert. Dabei zerbricht zuerst die Hülle aus Helium, die den Weißen Zwerg umgibt. Diese erste Detonation löst wohl schließlich die Explosion des Kohlenstoff-Kerns aus. Diese Art der Supernova-Explosion würde knapp unter der Massegrenze des Chandrasekhar-Limits liegen. Trotzdem können die Supernovae vom Typ Ia auch weiterhin als kosmische Distanzmesser dienen.]

Alternativen

Mittlerweile ist es den Astronomen gelungen, die kosmische Distanzleiter Sprosse für Sprosse zu präzisieren und die unvermeidlichen systematischen Fehler dabei immer besser in den Griff zu bekommen. Trotzdem birgt das Hochklettern auf der kosmischen Abstandsleiter immer noch eine ganze Reihe von Unsicherheiten und Ungenauigkeiten, die u. a. auch aus der Abhängigkeit vom Kosmologischen Standardmodell resultieren, das von einer Reihe wichtiger Annahmen (z. B. der Dunklen Energie) ausgeht. Die Forscher versuchen daher, Alternativen zu den bisherigen Leitersprossen zu entwickeln.

Inzwischen gibt es gut ein Dutzend verschiedener Typen von Standardkerzen. 2011 ermittelten die Kosmologen die absolute Helligkeit von aktiven galaktischen Kernen (Quasaren) und setzten sie in Beziehung dazu, wie hell die Galaxienkerne von der Erde aus erscheinen. So erhält man ein Maß für ihren Abstand von der Erde. Die neue Methode erlaubt es, größere kosmische Distanzen zu messen als vorher möglich war, bis in Entfernungen von etwa 55% vom Radius des sichtbaren Universums.

Supernovae vom Typ II lassen sich ebenfalls als Entfernungsindikatoren verwenden. Bei einer Typ-II-N-Supernova kollidieren die fortgeschleuderten Sternreste mit dem Material, welches das Gestirn zuvor ausgeworfen hatte. Die Zeit zwischen dem Ausbruch der Supernova und der explosiven Kollision beträgt nach ersten Beobachtungen etwa 40 Tage, was auf einen kausalen Zusammenhang beider Ereignisse hindeutet. Mit Hilfe der gemessenen Helligkeit kann dann ihre Distanz bestimmt werden.

Diese Methode funktioniert bis zu Entfernungen von 200 Megaparsek. Da bei solchen Supernovae vom Typ II aber sehr massereiche Sterne unterschiedlicher Größe explodieren, zeigen sie eine größere Bandbreite an Leuchtkräften als die Vertreter vom Typ Ia und sind deshalb keine guten Standardkerzen. Allerdings lässt sich ihre Entfernung durch spektroskopische Untersuchungen ihrer expandierenden Hüllen und durch fotometrische Messungen ihres Winkeldurchmessers ermitteln.

Eine andere Möglichkeit zur Bestimmung von kosmischen Entfernungen sind beispielsweise sog. Megamaser, die oft viele hundert Millionen Lichtjahre entfernt sind. Bei ihnen handelt es sich vermutlich um supermassereiche Schwarze Löcher mit vielen Millionen Sonnenmassen, die von Molekülwolken umkreist werden. Dank der markanten Strahlung, die von diesen Systemen ausgeht, kann man u. a. den Abstand der Wolken vom Schwarzen Loch ermitteln und auf Umwegen letztlich ihren Abstand zu uns. Leider sind bisher nur wenige solcher Systeme bekannt.

Auch mit Hilfe von Gravitationslinsen lassen sich kosmische Entfernungen schätzen. Darunter versteht man sehr massereiche Objekte, deren Wirkung groß genug ist, um Licht abzulenken. Vor allem sind das große elliptische Galaxien oder Galaxienhaufen, aber auch Schwarze Löcher. Sie „verbiegen“ den Raum (genauer: die Raumzeit) derart, dass sich Lichtstrahlen in ihrer Nähe nicht geradlinig, sondern gekrümmt ausbreiten, so dass gigantische Verzerrungen auftreten. Ein Quasar oder eine Galaxie, die hinter der Gravitationslinse liegen, erscheinen dabei nicht nur bogenförmig verzerrt und auseinandergezogen, sondern auch wie durch eine riesige Lupe vergrößert – manchmal um einen Faktor von 20 bis 100. Auf diese Weise erzeugen Gravitationslinsen in ihrer Helligkeit verstärkte Abbilder von leuchtenden astronomischen Objekten, die sich, von der Erde aus gesehen, hinter ihnen befinden.

Besonders interessant ist diese Anordnung, wenn die Helligkeit einer Quelle im Hintergrund variiert, was beispielsweise bei Quasaren der Fall ist. Befindet sich die Gravitationslinse außerdem minimal neben der kürzesten Verbindung zwischen Quelle und Beobachter, erscheint dieses Flackern auf der Erde nicht gleichzeitig, sondern für die jeweiligen Bilder der Quelle kurz hintereinander, da ihr Licht unterschiedlich lange unterwegs ist. Nimmt man ein System aus zwei „gravitationsgelinsten“ Bildern eines weit entfernten Objekts und misst die Zeitverzögerung zwischen beiden Bildern, kann man daraus auf die absolute Entfernung zum Objekt schließen. Damit hat man eine elegante Möglichkeit gefunden, mit Hilfe des Gravitationslinseneffekts die kosmische Entfernungsskala zu eichen.

REM

Der Weg zum Menschen (2)

Die Frühmenschen

Die Forscher gehen heute davon aus, dass der Beginn der Eiszeiten in den nördlichen Breiten und das daraus resultierende kältere und trocknere Klima in Afrika die treibende Kraft zur Menschwerdung waren.

Vor 2,8 bis 2,5 Millionen Jahren gingen die Temperaturen weltweit zum Teil dramatisch zurück, beide Polkappen vereisten und der Meeresspiegel sank. Gleichzeitig gab es deutlich weniger Niederschläge. Für die Geologen beginnt damit eine neue Epoche , das Eiszeitalter oder Pleistozän, das von circa 26 Millionen Jahren bis 11 700 Jahren vor heute dauerte. Eiszeit auf den Nordkontinenten bedeutet Trockenklima im äquatorialen Bereich. Auch in Afrika wurde es daher im Jahresmittel nicht nur kühler, sondern vor allem immer trockener. Dies führte dazu, dass sich schlagartig der nun schon seit Millionen von Jahren herrschende Zerfall großräumiger Waldbiotope verstärkt fortsetzte und die letzten Waldgebiet in Ost- und Südafrika verschwanden. Offene Flächen mit knie- bis hüfthohen Gräsern und dornigen Sträuchern nahmen zu, die Feuchtsavanne wurde vielerorts zur Trockensavanne. Lediglich entlang der Flussläufe blieben Galeriewälder erhalten.

Die Populationen der Vormenschen hatten sich an unterschiedliche Umweltbedingungen angepasst, die sich über weite Zeiträume nur ganz langsam verändert hatten. Nun aber übten schnelle, heftige Wechsel zwischen feuchten und trockenen Perioden einen zusätzlichen Anpassungsdruck aus. Denn in deren Gefolge änderten sich Vegetation, Wasserstellen und Wanderbewegungen der großen Tierherden. Lebensräume (Habitate) dehnten sich periodisch aus und schrumpften wieder – und es kam immer wieder zur Isolierung von Populationen. Vor allem in den ökologischen Randgebieten, wo der Selektionsdruck zur Entwicklung neuer Fertigkeiten groß ist, könnte eine verstärkte Auslese stattgefunden haben. (Auch Antilopen haben in dieser Zeit eine intensive Evolution durchgemacht. Mehr als drei Dutzend neuer Arten tauchten auf, darunter Gnus und Oryx-Antilopen.)

Die Nahrung nahm wohl jetzt beträchtlichen Einfluss auf die Evolution. Das Angebot an Essbarem hing oft von der Jahreszeit ab und änderte sich fortwährend. Trockenzeiten in der Savanne bedeuten für Pflanzenesser ein knappes Nahrungsangebot. Früchte und zartes Blattgrün wurden rarer und fanden sich nur noch unregelmäßig verteilt. Das bedeutet erhöhte Nahrungskonkurrenz. Hatten sich die Vormenschen zuvor vergleichsweise mühelos ernähren können, waren sie nun gezwungen, mehr Aufwand zu betreiben. Und die Fähigkeit, einen vielseitigen Speiseplan zu nutzen, konnte das Überleben in schlechten Zeiten sichern. Eher unflexible Linien starben damals offenbar aus.

Die natürliche Selektion wirkte offenbar auch dahin, sich immer energiehaltigere Nahrung zu beschaffen. In der zunehmend trockner und karger werdenden Savanne wurden aber Nüsse und Samen ungewöhnlich dickwandig und hartschalig, Wurzeln und Knollen verholzten. Darauf waren die meisten Australopithecinen von ihren Zähnen und ihrem Verdauungstrakt her nicht gut eingerichtet. Sie passten sich den neuen Bedingungen in zwei Richtungen an, die sich lange nebeneinander bewährten.

Einige Vormenschen-Arten, die robusten Australopithecinen, entwickelten massive Kiefer, eine kraftvolle Kaumuskulatur und überdimensionierte Zähne. Nach Analysen von Nahrungsspuren auf Letzteren deutet alles darauf hin, dass sie sich bevorzugt von harten, faserreichen tropischen Gräsern ernährten, aber auch Produkte von Bäumen und Büschen nicht verschmähten. Mit ihrem kräftigen Gebiss konnten sie sogar Äste und dickschalige Nüsse knacken.

Zu den robusten Australopithecinen, die den Gattungsnamen Paranthropus erhielten, gehörten zu der damaligen Zeit der Australopithecus (Paranthropus) robustus im südlichen Afrika (1,10 m bis 1,30 m groß und 37 bis 57 kg schwer) und der Australopithecus (Paranthropus) boisei in Ostafrika (1,20 bis 1,40 m groß und 40 bis 80 kg schwer). Die Größen- und Gewichtsunterschiede innerhalb beider Arten resultieren aus einem ausgeprägten Geschlechtsdimorphismus. Das Hirnvolumen der Paranthropinen betrug durchschnittlich 500 bis 510 cm3, wobei sich im Laufe der Zeit kein Trend zu einer Vergrößerung erkennen lässt.

Eine andere Linie der Australopithecinen, aus der vermutlich die Gattung Homo hervorging, entwickelte keine massigen Kiefer. Ihre Vertreter waren höchstens einige Zentimeter größer, aber zierlicher gebaut als die Paranthropinen. Sie lebten in stabilen Gruppen, die gemeinsam auf die Suche nach Nahrung gingen und diese vermutlich auch schon miteinander teilten. Ihre Nahrung bestand im Wesentlichen aus hochwertiger Pflanzennahrung: Wurzeln und Samen, Nüssen und Früchten. In zunehmendem Maße kamen Kleintiere – Termiten, Käfer und andere Insekten, Würmer, Muscheln und Schnecken, Eidechsen -, aber auch Vogeleier hinzu, manchmal sogar ein Stück Fleisch, wenn die Gruppe zufällig einen Kadaver oder ein frisch getötetes Tier fanden. Fleisch hat einen erheblichen Nahrungsvorteil: Mit einem großen Stück Fleisch können 10 Personen ernährt werden, allein das Knochenmark einer ausgewachsenen Impala-Antilope enthält immerhin 1500 Kilokalorien Nährwert. Von Beeren und Samen hätte man dafür schon eine riesige Menge sammeln müssen.

Entstehung der Gattung Homo

Offensichtlich waren Steinwerkzeuge für diese Australopithecinen eine geeignete Alternative, um auch einer zunehmend härteren Nahrung Paroli zu bieten. Vielleicht griffen sie zu einem Hammerstein, um Nüsse und harte Samen aufzuschlagen. Oder sie benutzten scharfe Steine, die sich in den Vulkangebieten Ostafrikas, besonders in den Flusstälern, häufig finden, um beispielsweise Maden aus der Baumrinde zu kratzen. Werkzeugspuren auf Tierknochen deuten darauf hin, dass sie möglicherweise auch zufällig entstandene scharfkantige Abschläge zum Schneiden einsetzten.

Am Fluss Kada Gona (Äthiopien), an der Grenze zu Kenia, wurden auf ein Alter von 2,6 Millionen Jahre gedeutete Steinwerkzeuge gefunden, die zu recht groben Schabern behauen waren und sich dazu geeignet hätten, das Fleisch von Tierkadavern von den Knochen zu lösen. Die ersten solcher grob gefertigten Steingeräte – Schaber und Chopper (beschlagene Geräte mit scharfer Kante) – waren in der Olduvai-Schlucht (Tansania) gefunden worden. Daher bezeichnet man diese Steinzeittechnologie auch als Oldowan-Kultur.

Die Artefakte und andere weitere Funde aus dieser Zeit wirken schon so raffiniert bearbeitet, dass sie wohl kaum erste Versuche einer Werkzeugherstellung gewesen sein können. Ihre Hersteller waren schon relativ geschickt und gingen planmäßig vor. Sie nahmen eine Kernstein in die eine Hand und schlugen mit einem Hammerstein in der anderen Hand gezielt Stücke mit scharfen Kanten ab. Es muss weniger perfekte Vorläufer gegeben haben und somit eine Tradition, durch die sich das nötige Wissen und Können mit der Zeit herausgeschält hat. Allerdings existiert keine Verbindung zu den 700 000 Jahre älteren Lomekwi-Geräten, die möglicherweise schon von Vormenschen hergestellt worden waren.

Die Oldowan-Kultur ist für die Zeit von vor 2,6 Millionen bis vor 1,5 Millionen Jahren nachgewiesen. Allerdings variieren die Stile zwischen den Fundorten und Zeithorizonten, weswegen manche Archäologen lieber von Oldowan-Kulturen im Plural sprechen.

Erste Menschen

In allmählicher Anpassung an die zunehmend trockneren afrikanischen Landschaften waren jetzt die ersten entscheidenden Etappen zum Menschen zurückgelegt: Erwerb des aufrechten Ganges, Umstellung in der Ernährung (von reinen Pflanzenessern zu Nahrungsgeneralisten), Herstellung (und Nutzung) von Werkzeugen. Die Anforderungen im neuen Lebensraum waren groß: Nahrung war schwer zu beschaffen, große Gefahren durch wilde Tiere – vor allem Großkatzen – drohten allüberall. Um den schnellen und starken Konkurrenten zu begegnen, musste der Mangel an körperlicher Stärke durch Kopfarbeit und Kooperation mit Artgenossen ausgeglichen werden. Es entwickelte sich ein immer ausgefeilteres Sozialleben, das Gehirnvolumen nahm (zunächst allerdings in geringem Maße) zu.

Wahrscheinlich existierten mehr als eine Million Jahre lang mehrere Homininen-Arten nebeneinander. In Ostafrika waren es zwischen 2,5 und 2,0 Millionen Jahren mindestens vier bis fünf. Wie viele Arten es in diesen Zeiten in Afrika insgesamt gab, welche davon Geräte herstellten und wie ihr Gang beschaffen war, ist aber noch ein Rätsel. Es gibt zu wenige Fossilien aus dieser Übergangsphase, die meisten davon Bruchstücke.

Dabei macht die einsetzende adaptive Radiation es schwierig, die genauen phylogenetischen Beziehungen zwischen den Australopithecinen und den Frühmenschen zu rekonstruieren und eine eindeutige Grenze zwischen ihnen zu ziehen. Typisch menschliche Charakteristika traten immer wieder in unterschiedlichen Merkmalskombinationen auf. Eine unanfechtbare Definition, ab wann von einem Menschen gesprochen werden kann oder soll, bleibt aber letztlich willkürlich. Viele Wissenschaftler sprechen ab einem Gehirnvolumen von 600 cm3 von einem Menschen (Homo).

Welche der bisher bekannten Fossilien die erste Homo-Art oder zumindest eine ihr nahestehende Spezies repräsentieren und wie die einzelnen Evolutionsschritte abliefen, lässt sich also wohl nicht exakt klären. Als ältesten Vertreter der Gattung Homo nimmt man den Homo rudolfensis an, der spätestens vor 2,5 Millionen Jahren gemeinsam mit den robusten Australopithecinen u. a. das Gebiet des Malawi-Riffs bevölkerte. Er war über 1,50 m groß und hatte schon ein Gehirnvolumen zwischen 600 und 800 cm3. Vom Homo habilis, dessen frühe Vertreter auch erstmals vor 2,8 bis 2,5 Millionen Jahren auftraten, sind mehrere Arten oder Varianten bekannt. Er war auch vielleicht um die 1,50 m groß und hatte ein Gehirnvolumen von mindestens 600 cm3. Werkzeuggebrauch ist auch bei ihm eindeutig belegt.

Die genauen Eigenschaften von Homo habilis und Homo rudolfensis und ihre exakte taxonomische Stellung sind aber nach wie vor unsicher. Einige Wissenschaftler halten den Gattungsbegriff Homo für die ihnen zugeordneten Fossilien für reichlich weit gefasst. Zumindest den älteren Habilis muss man nach den strengen Kriterien der wissenschaftlichen Klassifikation nicht zwingend unserer eigenen Gattung zuordnen, denn sein Körperbau unterscheidet sich sehr stark von unserem. Daher wird er in manchen neueren Stammbaumdarstellungen auch als Seitenast der eigentlichen Homo-Linie bezeichnet oder gar der Australopithecus-Linie zugeordnet.

Der Homo rudolfensis existierte vermutlich bis vor 1,8 Millionen Jahren. Ein Homo habilis „im engeren Sinne“ tauchte nach Meinung mancher Forscher erst vor gut zwei Millionen Jahren auf und lebte nahezu unverändert bis vor rund 1,5 Millionen Jahren. Damit liegt nahe, dass er fast eine halbe Million Jahre auch mit dem Homo erectus (s. u.) Seite an Seite in Ostafrika lebte. Die Wissenschaftler vermuten, dass sie unterschiedliche ökologische Nischen besetzten und nicht miteinander konkurrierten. Homo habilis war wohl ein „opportunistischer Allesverzehrer“ (der Paläontologe Yves Coppens), wohingegen Homo erectus Fleischnahrung bevorzugte. Einige Forscher sind überzeugt, dass beide Arten von einem gemeinsamen Vorfahren abstammen, der vor zwei bis drei Millionen Jahren in Afrika lebte, von dem aber noch keine Reste gefunden wurden.

Fleischnahrung

Steinwerkzeuge dürften von den Frühmenschen vielseitig eingesetzt worden sein. Mit einfachen Kerngeräten konnten nicht nur hartschalige Samen geknackt, sondern auch Röhrenknochen zertrümmert werden, so dass das energiereiches Mark freigelegt wurde. Werkzeuge dienten wohl auch zur Bearbeitung von Holzstöcken und anderen Gegenständen. Durch Funde lässt sich das schlecht belegen, da die meisten Dinge aus Knochen, Holz oder Horn längst in den Kreislauf der Natur zurückgekehrt sind.

Mit der beginnenden Werkzeugkultur konnten unsere Vorfahren also die Folgen des Klimawandels abfangen. Neue Nahrungsquellen konnten besser genutzt und damit der Speiseplan beträchtlich erweitert werden als bei jeder anderen Homininen-Art zuvor. Damit begann gleichzeitig die Unabhängigkeit von der Umwelt und die Abhängigkeit von den Werkzeugen – nach der Entstehung des aufrechten Gangs ein weiterer Meilenstein in der Geschichte der Menschwerdung.

Die Verarbeitung fleischlicher Nahrung wurde durch Steinwerkzeuge erleichtert. Bei allem, was größer ist als ein Hase, ist das Gebiss eines Menschen ebenso wie seine bloßen Hände für das Zerlegen des Tieres wenig geeignet, es sei denn, das Fleisch ist verfault.

Aas wurde aber wohl nicht verwertet. Das dokumentieren Schnittspuren an Knochen, z. B. in Olduvai, nach denen das Maximum an großen Fleischpartien durch gezielte Schnitte abgelöst wurde. Aasverwertende Homininen hätten lediglich Gewebereste von den Knochen heruntergeschabt und dabei ganz andere Spuren hinterlassen, als wir heute finden. Außerdem fehlten unseren Ahnen wohl auch die starken Magensäfte, um die Toxine der Bakterien, die bei der Verwesung entstehen, abzubauen.

Die scharfkantigen Steinwerkzeuge ersetzten also gleichsam die Klauen und Reißzähne der Raubtiere und ermöglichten den Frühmenschen die Zerlegung großer Kadaver von Gras fressenden Tieren. So erweiterten die ersten Vertreter der Gattung Homo ihre Nahrungsstrategie neben weiteren hochenergetischen Nährstoffen um Fleisch und nutzten dazu das Angebot der Savanne. Dabei war auch das sehr fetthaltige Knochenmark für die Homininen interessant. Tierisches Fett und Protein wurden immer wichtiger. Erste Beweise für den Verzehr von Fleisch findet man aus der Zeit vor 2,3 Millionen Jahren, danach wird er immer gebräuchlicher.

Viele Modelle der Menschwerdung nehmen allerdings an, dass Fleisch während der gesamten Evolution zum Menschen immer nur Zusatzkost war und nicht die größte Rolle spielte. Der Magen des Menschen ist nicht auf reine Fleischnahrung eingestellt. Der Frühmensch verfügte noch über eine Reihe anderer Möglichkeiten, um an proteinreiche Nahrung zu gelangen, z. B. indem er Insekten verspeiste. Der größter Vorteil gegenüber anderen Homininen-Arten war jedoch ihre Flexibilität, je nach Angebotslage reagieren zu können. Gab es keine Tierkadaver, sammelten sie Früchte und Knollen oder zerhämmerten Nüsse und Samen; war plötzlich Fleisch verfügbar, ernährten sie sich davon.

Da die Frühmenschen nicht auf eine regelmäßige Versorgung mit Fleisch angewiesen waren, kann sich das Erbeuten von Großtieren allmählich entwickelt haben, ohne dass komplexe Verhaltensweisen von Beginn an vorausgesetzt werden müssen. Durch die Fülle großer Pflanzenfresser in der Savanne ergaben sich wahrscheinlich vielerlei Gelegenheiten, ohne große Probleme an Fleisch zu kommen. So blieben nach Steppenbränden viele frisch verendete Kadaver zurück. Bei der Geburt verstorbene Tiere der jahreszeitlich wandernden großen Herden waren leicht aufzufinden (z. B. durch Beobachtung von Geiern). Durch Verletzungen geschwächte oder kranke Tiere konnten an ihrem Verhalten erkannt und systematisch verfolgt werden, bis sie starben. Außerdem beobachteten die frühen Menschen möglicherweise Raubtiere bei der Jagd. Was diese von ihrem Riss übrigließen, war oft mehr als genug. (Löwen lassen bis zu 50% liegen, Leoparden bis zu 20%.)

Mit der Hinwendung zu Fleischnahrung hatte die Homo-Linie einen sehr erfolgreichen Weg gewählt. Die Vorteile des gelegentlichen Fleischverzehrs („opportunistische Großwildbeuter“) lagen in der hohen Qualität der Nahrung, der Transportierbarkeit und eben dem häufigen Vorkommen in der Trockenzeit, wodurch die saisonalen Schwankungen im Nahrungsangebot ausgeglichen werden konnten. Die reichhaltige, fett-, eiweiß- und phosphatreiche Nahrung schuf Voraussetzungen, dank derer in der Gattung Homo später das energiehungrige Gehirn größer und leistungsfähiger wurde. Während sich also die robusten Homininen-Formen mit ihrem mächtigen Kauapparat als Nahrungsexperten für harte Kost etablierten, lag der Vorteil der Homo-Sippe mit zierlichen Kiefern, weniger Kaumuskulatur und schwächeren Backenzähnen im sich stetig vergrößernden Gehirn.

Aber nicht das Erbeuten von Großtierkadavern und die Fleischnahrung selbst sind als typisch menschliche Verhaltensweisen herauszustellen, sondern die Nahrungsteilung. Allein die Größe der Beutetiere könnte diese Form des sozialen Verhaltens bewirkt haben. Da große Beutetiere weder von einem Individuum noch von einer sehr kleinen Verwandtschaftsgruppe allein verspeist werden können, erfordert deren vollständige (optimale) Nutzung geradezu eine Nahrungsteilung in einer größeren Gemeinschaft. Diese hatte wohl einen nachhaltigen Einfluss auf die Entwicklung der Sozialstrukturen und weiterer menschlicher Verhaltenseigenschaften gehabt, was zu einem erheblichen Selektionsvorteil geführt haben musste.

Leben in der Gruppe bedeutet in der Savanne auch immer eine höhere Überlebenschance. Ein einzelner nicht bewaffneter, zweibeiniger Hominine wäre hier wohl angesichts der überall lauernden Gefahren nicht überlebensfähig. Auf langen Nahrungsstreifzügen bot eine Gruppe größeren Schutz. In der Gemeinschaft gelang es, Raubtiere von einem Riss zu vertreiben oder abzuhalten, beispielsweise durch Schreien und Schlagen mit Stöcken oder Werfen mit Steinen und Ästen.

Oft beobachten die San in der Kalahari heute noch Raubtiere bei der Jagd und greifen erst ein, nachdem diese erfolgreich waren. Sie vertreiben z. B. Geparden von ihrer Beute, indem sie laut rufen und auf den Boden schlagen. Es gelingt ihnen sogar bei Löwen, zumindest Teile eines kurzzeitig verlassenen Risses zu erbeuten. Dass dies auch Frühmenschen schafften, wird durch Schnittspuren an fossilen Knochen belegt, die von Steinmessern verursacht wurden und zum Teil über den Fraßspuren von Raubtieren liegen.

Strategische Planung war also schon erforderlich, um in der feindlichen Umwelt bestehen zu können. Hinweise auf eine aktive Jagd gibt es allerdings nicht. Jagdmethoden wie Hetzjagd oder Anschleichen und Auflauern kamen für die Frühmenschen zunächst noch nicht in Frage, da sie einfach körperlich dazu noch nicht in der Lage waren und auch keine Tötungsmittel besaßen.

Homo erectus

Vor spätestens zwei Millionen Jahren betrat mit dem Homo erectus eine großwüchsige und wendige Menschenart die Bühne, die der unseren bereits deutlich ähnelte. Sein Auftreten markiert einen Meilenstein in der Menschen-Evolution. Die Werkzeugkultur änderte sich drastisch. Jetzt sahen die Steinwerkzeuge aus, als wären sie nach einheitlichen Vorgaben fabriziert.

Wahrscheinlich lebte Homo erectus mit anderen Homininen-Arten zusammen. Im südlichen Afrika lebte vor fast zwei Millionen Jahren auch z. B. der Australopithecus sediba, der in bisher nicht gekannter Manier Kennzeichen der Gattung Australopithecus verbunden mit solchen zeigt, die auf die Gattung Homo weisen. Er ging aufrecht und hatte vermutlich schon sehr geschickte Hände. Sein Gehirn ähnelte allerdings bei 420 cm3 Volumen mehr dem eines Schimpansen. Nach Meinung einiger Experten könnte er durchaus ein naher Vorfahr der Gattung Homo gewesen sein; viel wahrscheinlicher scheint aber, dass die südafrikanischen Homininen eine separate Formengruppe mit eigener lokaler Geschichte darstellen.

Die frühen Vertreter des Homo erectus lebten in mehr oder weniger offenen Savannengebieten und in den Galeriewäldern entlang der Flüsse. Durch die Vervollkommnung des aufrechten Gangs waren sie in der Lage, auf ihren Streifzügen große Entfernungen bei geringerem Kalorienumsatz zurückzulegen. Homo erectus hatte sich zu einem Ausdauerläufer entwickelt. Manche Forscher sind der Ansicht, dass er schon in der Lage war, seine Beute bis zur völligen Erschöpfung zu hetzen, wie es die San auch heute noch tun. Zwei Millionen alte Fundstücke vom Ufer des Victoria-Sees in Westkenia, die meisten von jungen Antilopen, halten die Wissenschaftler für die bisher ältesten handfesten Zeugnisse menschlicher Jagd. Über einen langen Zeitraum scheint man dort regelmäßig und in erheblicher Menge Fleisch, Fett, Knochenmark und dergleichen verzehrt zu haben. Auch in der Olduvai-Schlucht fand man einen – auf 1,85 Millionen Jahre datierten – Platz, an der Frühmenschen massenhaft Tiere zerlegt haben.

Homo erectus entwickelte sich zum ersten Großwildjäger der Menschheitsgeschichte. Selektionskräfte bewirkten einen Umbau der Schulter, so dass er lernte, mit großer Kraft weit und gezielt zu werfen. Trotzdem machte auch jetzt noch aller Wahrscheinlichkeit nach Großwildfleisch nur einen kleinen Teil seines Nahrungsspektrums aus. Es dürfte gerade mal 10 bis 20% seiner gesamten Kalorienzufuhr ausgemacht haben. Daneben standen bei ihm neben Insekten vor allem energiereiche Pflanzenteile auf dem Speiseplan, z. B. Knollen, wie Zubereitungsspuren an Werkzeugen erkennen lassen.

Diese frühen Menschen waren also Allesesser und überstanden darum wildarme Phasen viel besser als die reinen Fleischfresser, zu denen damals auch Säbelzahnkatzen gehörten. Gerade in Zeiten, in denen die Raubtiere hungerten, fanden diese Homininen immer noch etwas Essbares. Zudem brachten ihnen technische Innovationen und kreative Jagdtechniken mehr Beute ein, so dass sie den Großraubtieren zu einer immer ernsteren Konkurrenz wurden und schließlich zum Aussterben einer Anzahl von ihnen führte.

Australopithecus boisei, eine robuster Australopithecine, lebte noch lange Zeit und auch räumlich dicht mit dem kulturell weiterentwickelten Homo erectus in Ostafrika zusammen. Er starb erst vor etwa einer Million Jahren aus, als Homo erectus bereits die gesamte Alte Welt bevölkerte. Möglicherweise erlaubte ihm seine spezialisierte Lebensweise nicht, sich nochmals auf eine andere Kost umzustellen, als eine neue Kaltzeit Klima und Umwelt veränderten. Vielleicht waren aber auch noch andere Faktoren die Ursachen für sein Aussterben.

Der große Vorteil des Homo erectus lag wohl an seinem größeren Gehirn und der entsprechend höheren Intelligenz und Flexibilität im Vergleich zu den Australopithecinen und anderen frühen Homininen. Sein Gehirnvolumen entwickelte sich von knapp 600 cm3 beim frühen bis auf sage und schreibe 1250 cm3 beim späten Erectus. Seine beträchtliche Anpassungsfähigkeit an ungewohnte ökologische Herausforderungen war wohl die entscheidende Eigenschaft, die es ihm auch ermöglichte, in neue Lebensräume vorzustoßen. Als erste Menschenart überhaupt breitete er sich über ganz Afrika aus und besiedelte den Kontinent von den gemäßigten Zonen Südafrikas bis weit nach Norden. Die erste Auswanderung nach Europa und Asien ließ nicht lange auf sich warten. Er ist damit nach Homo sapiens die am weitesten verbreitete Menschenform aller Zeiten. Auf indonesischen Inseln existierte Homo erectus noch bis vor etwa 100 000 Jahren, während er sich an anderen Orten zu neuen Menschenformen entwickelte oder in nachrückenden Menschenformen aufging.

In Afrika lebten noch bis vor mindestens 400 000 Jahren verschiedene zeitlich und räumlich unterscheidbare Gruppen oder Unterarten des Homo nebeneinander. Dann spaltete sich eine weitere Art als kleine abgeschlossene Population von der Linie des Homo erectus ab und entwickelte sich zum Homo sapiens, der schließlich den gesamten Erdball besiedelte.

REM

Der Weg zum Menschen (1)

Die Vormenschen

Wir verdanken unsere Existenz als große denkende Säugetiere vielen zufälligen erdgeschichtlichen Ereignissen, wie auch jeder einzelne Mensch seine persönliche Existenz geschichtlichen Zufällen verdankt. Dabei dürfte das Klima zu den wichtigsten Einflüssen gehört haben. Als am Ende des späten Miozäns das Tethys-Meer vom Atlantik abgeschnitten worden war, führte das zur sog. „Mediterranen Salzkrise“ . Durch den fehlenden Wasseraustausch mit den Weltmeeren und den abgeschnittenen Zufluss vom asiatischen Festland verringerte sich die Wassermenge zwischen Afrika und Europa und große Mengen Salz lagerten sich im trocken fallenden Mittelmeerbecken ab. Diese Salzablagerung dauerte, geologisch gesehen, nur sehr kurze Zeit, vielleicht wenige 100 000 Jahre, bewirkte aber vor acht bis sieben Millionen Jahren eine drastische Klimaveränderung. Die Temperatur auf der Erde sank plötzlich stark ab, um etwa 5°C, und es wurde trockener.

Infolge der großen klimatischen Umschwünge begann in Afrika der tropische Regenwald, der zuvor von West- bis nach Ostafrika gereicht hatte, allmählich zu schrumpfen. In einer breiten östlichen Randzone weitete sich der Urwald nach und nach zu einem Flickenteppich aus einzelnen Baumgruppen aus und es entstand ein mit Flussläufen und Seen durchsetztes Gebiet. Der Druck der neuen Umwelt bewirkte vor etwa sieben bis sechs Millionen Jahren dann nicht nur die Aufspaltung der Stammeslinie in Wollhaar-Mammut und Asiatischem Elefant, sondern leitete auch die Evolution zum Menschen ein. Während dieser Epoche trennten sich bei den Primaten nämlich die Entwicklungsstränge hin zu den heutigen Schimpansen (und Bonobos) bzw. zu den Menschen.

Stammbusch

Die Grundfragen unserer Stammesgeschichte sind heute geklärt und unstrittig, aber wirklich gesicherte detaillierte Erkenntnisse zu unserer Evolution bleiben die Ausnahme. Es liegen zwar Tausende von Fossilien (Schädel, Skelette oder Fragmente davon) vor, die die Entwicklung des Menschen aus menschenaffenartigen Vorfahren überzeugend dokumentieren, aber die Fundlücken sind meistens zu groß, um zweifelsfreie Abstammungslinien zwischen ihnen herstellen zu können. Auf 100, auf 1000 Generationen kommt rein statistisch betrachtet nur ein Fund. Daher vermitteln die fossilen Knochen im Detail bestenfalls eher ein diffuses Abbild dessen, was einst eine äußerst verwickelte Abfolge von Ereignissen gewesen sein muss.

Die mit jedem Fund größer werdende Vielfalt menschenähnlicher Fossilien legt eine schnelle und breite Radiation der Primaten (wie übrigens auch der Pferde) vor etwa sieben bis fünf Millionen Jahren in Ostafrika nahe. Meistens lebten mehrere Homininenarten, die jeweils mehr oder weniger erfolgreich an bestimmte Lebensräume und Klimabedingungen angepasst waren, zugleich. Die früheren Stammbäume mit festen Abstammungszuweisungen sind inzwischen zu einem lockeren, ausladenden Stammbusch mit vielen Verzweigungen und sich auftrennenden, neuen Stammeslinien mutiert. Er umfasste zu jeder Zeit mehrere Arten und geografische Varianten, bei denen es zu ständigen Rekombinationen kam. Die Vielfalt der Übergangsformen war damals wohl so groß, dass es kaum eine genaue Trennlinie zwischen eher affenähnlichen Zweigen unseres Stammbusches und jenen Verästelungen geben kann, die schließlich zum Homo führten.

Die Abgrenzung zwischen den einzelnen Frühmenschenformen, die Bestimmung der Art-Identität und die Bestimmung der genauen Abfolge der Homininen ist sehr schwierig. Gleiche und ähnliche Merkmale deuten nicht zwangsläufig auf eine Abstammungsverwandtschaft hin – nicht einmal dann, wenn die beiden Primaten zu verschiedenen Zeiten lebten. Parallelentwicklungen und Umkehrungen von Merkmalsausprägungen können in die Irre führen. Hinzu kommt, dass wir nicht wissen, wie groß die Variationsbreite im äußeren Erscheinungsbild war, wie die Angehörigen einer Art z. B. in unterschiedlichen Lebensaltern und Geschlechtern aussahen.

Es wäre auch voreilig zu behaupten, dass wir von allen Formen und Arten, die damals existierten, schon Skelette oder Schädel gefunden haben, denn der Bestand der einzelnen Varianten war vermutlich in dieser Zeit sehr dünn und die geologischen und klimatischen Bedingungen zu ungünstig. Weitere Fossilfunde können möglicherweise mehr Übersicht im Detail über unseren Stammbusch verschaffen, aber mit jedem neuen Fossil wird das Bild der Entwicklung zum heutigen Menschen auch immer komplexer.

Während der letzten Jahrzehnte haben sich die wissenschaftlich anerkannten Homininenarten, welche dem Stammbusch des Menschen zugeordnet werden, fast verdoppelt. Unser Wissen ist aber noch viel zu lückenhaft, um eine genaue Einteilung festzulegen. Daher wechseln Artnamen und Artzugehörigkeit bei der Deutung vor- und frühmenschlicher Fossilien häufig, wobei auch das jeweilige Weltbild immer eine Rolle spielt. Letztlich sind die Einordnungen weitgehend hypothetisch und dienen nur der groben Orientierung. Zwei Denkrichtungen haben sich unter den Forschern herausgeschält: die „Splitter“ (von engl. to split = aufteilen) und die „Lumper“ (von engl. to lump together = zusammenwerfen), deren Ergebnisse weit auseinanderklaffen. Während die Splitter über 20 hominine Arten annehmen, gehen extreme Lumper von weitaus weniger Spezies aus; einige schließen sogar Artspaltungen in der eiszeitlichen Homo-Linie aus.

Selektion

Der Rückgang des Regenwaldes zu baumbestandenen Feuchtsavannen erforderte für unsere damaligen Ahnen eine Anpassung an das Leben am Boden, denn die Abstände zwischen den fruchttragenden Bäumen und damit die Wege zu den Hauptnahrungsquellen der damaligen Primaten verlängerten sich. In vielen inselartigen Habitaten und an Waldrändern entstanden zahlreiche zumindest zeitweise aufrecht gehende Vormenschen-Varianten. Der Aufrechtgang könnte eine „Präadaptation“ aus dem Wald gewesen sein, denn wahrscheinlich konnten sich unsere noch schimpansenartigen baumbewohnenden Vorläufer schon aufrichten (z. B., um nach Früchten zu greifen) und auf den Ästen kurzfristig laufen.

Als sich baumlose Lücken im Regenwald auftaten, folgten die bisherigen Baumbewohner bei der Nahrungssuche zwangsläufig ihrem anatomisch vorgegebenen Bewegungsmuster. Der Selektionsdruck auf eine effektive Fortbewegungsart dürfte generell immer besonders groß gewesen sein. Die Selektionskräfte scheinen zuerst die Hinterbeine und das Becken umgebildet zu haben. Auf die Arme und die Schulterpartie sei es zunächst wohl nicht so vordringlich angekommen. Solche Körperteile konnten darum erst später umgebaut werden.

Wenn sich ihre Umweltbedingungen veränderten, fanden intensive Entwicklungsschübe statt. Ein bestimmter Körperbau, eine Ernährungsweise oder eine Art der Fortbewegung, die zu einer Zeit gut passten, waren zu einer anderen womöglich weniger ideal. Wenn die wahrscheinlich sehr kleinen Populationen nach vielen Generationen einer räumlichen Isolation irgendwann wieder aufeinandertrafen, hatten sie Merkmale wie aufrechter Gang, Gehirngröße, Gebiss oder Hände unterschiedlich entwickelt – aber womöglich passten sie biologisch noch gut genug zusammen, um fruchtbare Nachkommen miteinander zu zeugen.

Vormenschen

-Als derzeit vermutlich ältester bekannter Vertreter unter den Vormenschen gilt der Sahelanthropus tschadensis, auch Toumai („Hoffnung auf Leben“) genannt, der vor 7,2 bis 6,8 Millionen Jahren in der Djourab-Wüste im Norden des Tschad lebte. Er besaß schon einen flachen Gesichtsschädel und recht kleine Eckzähne, aber noch ein Gehirn, das typisch für Menschenaffen ist. Daher halten ihn manche Forscher nur für einen gemeinsamen Vorfahren von Menschen und Schimpansen.

-Auch bei Orrorin tugenensis aus Kenia können die Daten nicht eindeutig belegen, ob es sich bei ihm wirklich um einen frühen Vormenschen handelte oder eher um einen Vorfahren der heutigen afrikanischen Menschenaffen oder gar einen Vertreter ausgestorbener Menschenaffenlinien. Seine Fossilien sind etwa sechs Millionen Jahre alt. Er lebte noch vorwiegend auf Bäumen, wo er schon ganz gut zweibeinig stehen und gehen konnte.

Ardipithecus ramidus, von dem man Fossilien aus der Zeit zwischen 5,8 und 4,4 Millionen Jahren fand, zeigt neben archaischen Menschaffenzügen ebenfalls schon Homininenmerkmale, wie z. B. ein menschenähnliches Becken und kleine Eckzähne. Er könnte ein ausgestorbener Seitenast unserer Ahnenreihe sein, aber auch ein früher Vertreter der Australopithecinen (s. u.).

Die Australopithecinen

In der Zeit zwischen sieben und fünf Millionen Jahren vor heute spalteten sich die Australopithecinen in Ostafrika von der äffischen Linie ab. Ihre Vorfahren waren den immer kleiner werdenden Waldregionen gefolgt und hatten immer längere Strecken über den Boden zurücklegen müssen. Die Zahl und Dichte ihrer Funde nahm ab etwa vier Millionen Jahren vor heute entscheidend zu. Zufallsereignisse bis 2,4 Millionen Jahren vor heute (Vulkanismus, afrikanische Dürren, Veränderung der Gezeiten und Vernichtung der Schalentiervorkommen) bewirkten häufige Auslesezyklen und prägten die Entwicklung.

Es kam wohl damals zu einer explosionsartigen Radiation, wofür der ostafrikanische Grabenbruch und der mosaikartige Lebensraum günstige Voraussetzungen schufen. Verschiedene Formen existierten über längere Phasen in zum Teil deutlich unterschiedlichen Habitaten nebeneinander – in Gebieten mit ziemlich dichtem Baumbestand, am Waldrand, in feuchteren seen- und flussreichen Regionen mit entsprechend üppiger Vegetation, in Savannenlandschaften mit Baumbeständen. Manchmal verteilten sie sich wieder über größere Gebiete und vermischten sich mit anderen Populationen.

Bei den frühen Australopithecinen waren die Unterschiede zu den Menschenaffen nur graduell, vor allem in den Merkmalen, die sich auf den Aufrechtgang beziehen. Vor vier bis drei Millionen Jahren war die Umbildung der Hinterextremitäten aber schon sehr weit fortgeschritten. Weil sich damit größere Distanzen bei geringerem Kalorienumsatz überwinden ließen, waren diese Arten in der Lage, ihren Aktionsradius zu erweitern und in diverse Gebiete vorzudringen, die zuvor schwer erreichbar waren. Immer auf der Hut vor Raubtieren und auf der Suche nach neuen Futterquellen mussten auch ihre Sinne geschärft werden. Unsere Fernsicht sollte ein biologisches Erbe aus dieser Zeit sein.

Die Australopithecinen breiteten sich bis nach Südafrika aus. Vermutlich kennen wir nur einen Teil der Arten, die vor allem in Süd- und Ostafrika verbreitet waren, von denen Fossilien aber auch im Tschad, 2500 Kilometer nordwestlich des Ostafrikanischen Grabenbruchs, gefunden wurden. Derzeit unterscheidet man grob zwei Linien: die „grazilen“ Vertreter (u. a. Australopithecus anamensis, afarensis, africanus, garhi) und die „robusten“ (Australopithecus aethiopicus, robustus, boisei).

Die Anpassungen an die Nahrungssuche in Bäumen (Früchte und Blätter) wurden zunächst beibehalten. Vor allem spätere Arten besaßen aber schon breitflächige Backenzähne, was darauf hinweist, dass ein großer Teil ihrer Nahrung auch aus härteren Teilen (Samen, Nüssen, Wurzeln und Baumrinde, vielleicht auch stärkereiche und eiweißreiche Wurzelknollen) bestand, die zermahlt werden mussten. (Auf eine solche Anpassung könnte auch das Verschwinden der Affenlücken -Diastemata – im Gebiss hindeuten, in denen die langen Eckzähne im Ober- und Unterkiefer der Menschenaffen Platz finden.) Der Rückgriff auf die genannten energiereichen Nahrungsmittel war in kühlen und trockenen, wenig fruchtbaren Klimaperioden lebensnotwendig. Außer pflanzlicher hat wohl auch schon tierische Nahrung bei manchen Australopithecinen auf dem Speiseplan gestanden: Würmer. Maden, Käfer, Eidechsen, Vogeleier – vielleicht auch manchmal eine junge Gazelle, die ihre Mutter verloren hatte.

Die Hirngröße der Australopithecinen betrug durchschnittlich 420 bis 600 cm3 und liegt absolut im Variationsbereich der rezenten Menschenaffen, gilt aber bezogen auf das geschätzte Körpergewicht als relativ größer. Sie entsprach jedenfalls dem doppelten Hirnvolumen der damals lebenden Affenarten und blieb bis vor ca. 2,5 Millionen Jahren relativ konstant, trotz der energiereichen Nahrung und überall lauernden Gefahren durch Raubkatzen und Hyänen. Ihre recht stabilen Gruppen aus 10 bis 20 Männchen und Weibchen (mit kleineren Substrukturen) gewährleisteten aber einen recht guten Schutz. Die Sexualdimorphie, also die Körperbauunterschiede zwischen den Geschlechtern, war zum Teil noch stark ausgeprägt. Das Verschwinden der großen Eckzähne könnte eine soziale Umorganisation bedeutet haben, denn große Eckzähne waren vor allem für Drohgebärden gegenüber anderen Männchen da.

Früher Werkzeuggebrauch

Für das allmähliche Zurückweichen der langen Eckzähne könnte aber auch, so glauben manche Forscher, der zunehmende Gebrauch von Werkzeugen mit verantwortlich sein. Nach der Herausbildung eines dauerhaften aufrechten Ganges waren die Hände fortwährend frei geworden und jetzt vielfältig zu gebrauchen, z. B. zum viel besseren Greifen und zum Transportieren von Gegenständen. Es spricht einiges für die Annahme, dass die Australopithecinen schon Knochen, Gehörne oder Äste als Hilfsgeräte verwendeten (z. B. zum Ausgraben von Knollen), was allerdings wegen der geringen Haltbarkeit der Materialien schwer nachzuweisen ist.

Gelegentlich benutzten sie wohl auch schon einen scharfen Stein, um Maden aus der Baumrinde zu kratzen, oder einen größeren Stein, um damit Schalen von Nüssen aufzuschlagen. Das alles aber geschah eher rein zufällig und nicht systematisch. Allerdings fand man in 3,3 Millionen alten Sedimenten aus Lomekwi am Westufer des Turkana-Sees (Kenia) große, unhandliche Steine mit Bearbeitungsspuren, einige davon 15 Kilogramm schwer. Das Rohmaterial für diese Artefakte musste zur Fundstelle gebracht worden sein, von welcher Vormenschen-Art genau, ist noch unklar.

Auch wozu die Steine dienten, kann man noch nicht sagen. Zu ihrer Herstellung hatten die Vormenschen entweder den Kernstein mit beiden Händen gegen einen größeren Ambossstein am Boden geschlagen, oder sie hatten den Kernstein auf einen Amboss gelegt und mit einem Hammerstein draufgeschlagen. Die nächstältesten gefundenen Werkzeuge sind viele hunderttausend Jahre jünger. In Bezug auf die Herstellungstechnik besteht aber keine erkennbare Verbindung zwischen ihnen und den Artefakten aus Lomekwi, zumindest gibt es keine Zeugnisse dafür. Die sogenannte „Lomekwi-Kultur“ scheint also isoliert dazustehen, so als wäre die Neuerung, sich Steine zurechtzuschlagen, kurz aufgeflackert und wieder verloschen, ohne dass die Technologie weitergegeben wurde.

Wahrscheinlich haben wir die Geschicklichkeit der Vormenschen unterschätzt. Lange glaubten die Paläoanthropologen, dass allein der Mensch (Homo) in der Lage war, Gestein oder anderes sehr hartes Material für seine Zwecke zu bearbeiten. Mittlerweile scheint sich aber der Verdacht zu bestätigen, dass bei den Homininen, vielleicht sogar auch bei anderen Primaten, etliche Populationen mit der Herstellung von Steinwerkzeugen oder auch nur mit dem Bearbeiten von Steinen herumprobierten – ohne Austausch zu anderen. Die Erfahrungen wurden nicht an spätere Generationen weitergegeben, so dass die Erfindungen wieder untergingen, da sie zunächst auch wohl keine große Rolle für eine Umweltanpassung spielten.

[Der Gebrauch und die Herstellung von Werkzeugen gehören nach neuesten Erkenntnissen auch zu den potenziellen Fähigkeiten einiger Menschenaffen. Der Werkzeuggebrauch bezieht sich vorwiegend auf Holzwerkzeuge, aber in einigen Kulturen werden auch Steinhämmer benutzt. So pflegen Gruppen von Schimpansen in Bossou / Guinea große Nüsse mit Steinen aufzuschlagen. Im Urwald der Elfenbeinküste benutzen die Schimpansen für die härteren Panda-Nüsse geeignete Hammersteine und einen Steinamboss. Der Archäologe Nicholas Toth von der Indiana-University lehrte in Gefangenschaft lebenden Bonobos („Kanzi“), von Steinen scharfe Abschläge (Klingen) zu machen und damit Seile zu durchtrennen. Er glaubt, dass Bonobos auch lernen würden, Artefakte wie die von Lomekwi herzustellen, wenn man ihnen die passenden Steine dafür geben würde.

Kleine Kapuzineraffen zerschlagen mit Hammersteinen Felsblöcke, um den dabei erzeugten Quarzstaub auflecken oder durch die Nase einsaugen zu können. Die Gesteinssplitter ähneln unverkennbar den abgeschlagenen Steinen, die man von manchen Fundstätten der Menschenvorfahren kennt. Es ist der erstmalige Nachweis, dass nichtmenschliche Primaten absichtlich Steine zerbrochen und scharfkantige Splitter hinterlassen haben.]

Fazit

Die Australopithecinen scheinen die basale Gattung bei der Menschwerdung gewesen zu sein. In einem anderen Szenario bilden die Australopithecinen lediglich einen Ast des menschlichen Stammbaums, der ausgestorben ist, während ein weiterer Ast auf Orrorin (s. o.) zurückgeführt wird. Die meisten Paläontologen sehen aber in dem grazilen Australopithecus afarensis („Lucy“) einen der direkten Vorfahren der Gattung Homo, oder zumindest einen ihr nahestehenden Verwandten. Er starb vor knapp drei Millionen Jahren aus, als in den nördlichen Breiten die Eiszeiten einsetzten und es in Afrika zunehmend kälter und trockener wurde. Wieder einmal sollte sich das Klima zur treibenden Kraft bei der Menschwerdung erweisen.

REM

Der Eiszeitzyklus (2) – Letzte Eiszeit und Holozän –

Die letzte Eiszeit

Die letzte Eiszeit begann vor ungefähr 115 000 Jahren und endete vor circa 11 700 Jahren. Der Übergang zu ihr vollzog sich nach erdgeschichtlichen Maßstäben sehr rasch; in drei Wellen rückten die Gletscher vor und zogen sich wieder zurück. Das Klimasystem der Erde befand sich in dieser Zeit offenbar in einem labilen Zustand. Abrupte Wechsel mit mehrfachem Umspringen der Temperaturen binnen drei Jahren um bis zu 7 Grad Celsius wurden gemessen.

Dann kam es zu einer Abkühlung des Klimas auf der ganzen Erde, verbunden mit weiträumigen Vergletscherungen und dem Absinken des Meeresspiegels. Vor 74 000 Jahren führte der letzte Ausbruch des Supervulkans Toba auf Sumatra zu einer dramatischen Klimaänderung mit einer weiteren Abkühlung. Nach dieser Kälteperiode begann sich das Klima vor etwa 60 000 Jahren wieder leicht zu erwärmen. Schließlich folgte eine noch stärkere Abkühlung vor 24 000 Jahren, als das Maximum der letzten Eiszeit begann.

In der Zeit vor 100 000 bis 20 000 Jahren traten in der nördlichen Hemisphäre etwa zwei Dutzend Interstadiale auf, in denen die allgemein vorherrschende Kälte von einem plötzlichen Temperaturanstieg von 6 bis 10 Grad innerhalb von 10 Jahren unterbrochen wurde. Nach der Erwärmung gab es eine leichte Abkühlung über einige Jahrhunderte, bevor die Temperatur abrupt wieder auf das eiszeitliche Niveau absackte und eine Phase extremer Kälte folgte. Auffallend ist die Regelmäßigkeit der Klimaänderungen. Die Sprünge erfolgten in Zyklen, die nach ihren Entdeckern Dansgaard-Oeschger-Zyklen (DO-Zyklen) genannt werden. Sie traten meist im Abstand von 1500 Jahren auf, manchmal lagen aber auch 3000 oder 4500 Jahre zwischen zwei solcher Ereignisse. In der Kreidezeit (vor 130 bis 65 Millionen Jahren) hatte es auch schon kurzfristige Klimaschwankungen gegeben, die den Dansgaard-Oeschger-Zyklen entsprechen.

Interessanterweise hatten die DO-Ereignisse in nördlichen Breiten der Erde Gegenstücke in der Antarktis, aber mit entgegengesetztem Verlauf: Während der Kältephasen in Grönland stieg am Südpol die Temperatur langsam an, erreichte ein Maximum und fiel während der warmen Episoden im Norden allmählich wieder ab. Der Umschwung am Südpol erfolgte stets durchschnittlich 208 Jahre nach dem im Norden. Das bestätigt die alte Vermutung, wonach der Norden jeweils den Anfang machte und die Trendwende im Süden nach sich zog. Der riesige Südozean mit seiner enormen Wärmekapazität reagierte eben nur verzögert auf das Temperatursignal aus dem Norden.

Über die genauen Ursachen des abrupten Klimawechsels gibt es verschiedene Theorien, aber noch keinen Konsens. Wahrscheinlich waren es letztlich sprunghafte Änderungen der Meeresströme im Atlantik, die die Klimaänderung im Norden bewirkten, ausgelöst durch Veränderungen in der Süßwasserzufuhr, in der Meereisbedeckung oder in der Ausdehnung von Eisschelfen, die allesamt die Bildung von Tiefenwasser im Norden oder Süden beeinflussen können. Kältephasen in der Arktis entsprechen Perioden mit abgeschwächter Meereszirkulation, in denen sich im Gegenzug die Antarktis erwärmte. Eine verstärkte Meereszirkulation transportiert wieder mehr Wärme vom Südmeer in den Norden.

Diese Hypothese stützt sich auf die Existenz der großräumigen Wasserzirkulation im Atlantik. Diese führt als eine Art Umwälzpumpe warmes Oberflächenwasser von der Südhalbkugel nach Norden. Weil es dabei allmählich abkühlt und sein Salzgehalt auf Grund von Verdunstung steigt, nimmt seine Dichte stetig zu, bis es am Rand der Arktis schließlich absinkt. Am Meeresgrund strömt es dann als nordatlantisches Tiefenwasser nach Süden zurück. Verstärkt sich diese Zirkulation, steigen die Temperaturen im Norden, während sie im Süden fallen. Das Gegenteil passiert, wenn sie sich abschwächt. Ein umfassendes Verständnis der Klimakopplung zwischen den Hemisphären steht aber weiterhin aus.

Eiszeitliches Maximum

Vor 24 000 Jahren folgte wieder eine Periode sehr starker Abkühlung, die ihren Höhepunkt vor 21 000 Jahren, dem glazialen Maximum, hatte. Die Temperaturen sanken im Winter auf minus 20°C ab, Eiskappen mit über 3,5 Kilometern Dicke bedeckten Kanada und Nordeuropa. Der Columbia River mündet heute dort in den Pazifik, wo einst das südliche Ende des kontinentalen Eispanzers lag. Die Eisdecken überspannten auch die Nordmeere einschließlich der Inseln Grönland und Island. In Nordeuropa reichten die Gletscherzungen bis nach Irland, in den Hamburger Raum und über Berlin hinaus, nicht ganz so weit, wie in den beiden vorangegangenen Eiszeiten.

Weltweit waren etwa 30% aller Landflächen von Gletschern bedeckt; heute sind es nur noch 10%, hauptsächlich in der Antarktis und auf Grönland. Weil das Eis riesige Mengen Wasser band, sank der Meeresspiegel mehr als 100 Meter unter den heutigen Wert. Entlang der Küsten dehnte sich Festland aus – so z. B. zwischen dem europäischen Kontinent und den Britischen Inseln. Zum asiatischen Kontinent gehörten damals die heutigen südostasiatischen Inseln Sumatra und Borneo, Neuguinea gehörte zu Australien. Die Beringstraße bildete eine Landbrücke von Asien (Sibirien) nach Alaska. Auch der Grundwasserspiegel auf dem Festland musste erheblich gefallen sein – Ostafrikas riesiger Victoria-See war zeitweilig völlig ausgetrocknet. An den Küsten des Roten Meeres entstanden Neulandflächen, in denen überall Süßwasserquellen entsprangen.

Die Atmosphäre war so trocken, dass es kaum regnete oder schneite. Überall auf den Kontinenten breiteten sich Wüsten aus. Daneben gab es baumlose Tundra und trockene Steppenlandschaften. Die Atmosphäre enthielt weniger Treibhausgase (30 bis 40% weniger Kohlenstoffdioxid und 50% weniger Methan) als in der heutigen Warmzeit. Allerdings lag die mittlere Lufttemperatur auf der Erde nur etwa 6 Grad Celsius unter dem heutigen Wert. Denn nicht überall sanken die Temperaturen gleich stark: Die Abkühlung erfasste vor allem den Nordatlantik-Raum und Japan; in den Tropen und auf der Südhalbkugel war sie geringer. Demzufolge hat eine Abkühlung des Planeten von wenigen Grad bereits dramatische Folgen, die von Region zu Region stark variieren können.

Die Wende

Klimaarchive in Südamerika und der Antarktis deuten darauf hin, dass das große Tauen am Ende der letzten Eiszeit auf der Südhalbkugel früher einsetzte als im Norden. Den Anstoß zur Erwärmung gab wohl eine geringe Änderung der Menge und Verteilung der Sonneneinstrahlung auf der Erdoberfläche, die mit Schwankungen der Erdbahn zusammenhing. Vermutlich über die ozeanische Zirkulation wurde die Erwärmung an den Norden weitergegeben und befreite schließlich auch Europa und Nordamerika aus dem Griff des Eises.

Nach den sogenannten Milankovic-Zyklen, die Klimaschwankungen mit Änderungen der Erdbahnparameter in Verbindung bringen, sind die Übergänge zwischen Kalt- und Warmzeiten eher gemächlich. Am Ende des letzten Glazials schrumpften die mächtigen Eisschilde allerdings zeitweise ungewöhnlich rasch – in einer Schmelzphase vor ungefähr 17 700 Jahren in vielen Regionen der Südhemisphäre nahezu zeitgleich. Parallel dazu stieg der Gehalt der Treibhausgase Kohlenstoffdioxid und Methan in der Atmosphäre rasch an. Vulkanausbrüche, zunächst auf der Südhalbkugel, könnten die Geschwindigkeit des Eisrückgangs schubweise beschleunigt haben. Einer der in Frage kommenden Vulkane könnte der Mount Takahe, ein Schildvulkan in der Antarktis, gewesen sein, von dessen Aktivität vor knapp 18 000 Jahren man Hinweise gefunden hat.

Vulkaneruptionen wirken sich in der Regel nicht linear auf das Klima aus; sie können das Klima sowohl aufheizen als auch abkühlen. Eine Erklärung für eine Aufheizung könnte gewesen sein, dass die Vulkanausbrüche ein Ozonloch über der Antarktis erzeugten, welches das Klima großräumig veränderte und so die Gletscherschmelze auf der Südhalbkugel beschleunigte. In Regionen wie Patagonien und Neuseeland nahmen vermutlich zur gleichen Zeit die Schneefälle ab, so dass die Gletscher dort im Eiltempo schrumpften.

Vor etwa 16 000 Jahren begann die Erwärmung der Nordhalbkugel. Die Gletscher in Nordamerika und Europa wichen auf breiter Front zurück. Nach Studien könnten auch auf der Nordhalbkugel Vulkanausbrüche (überwiegend auf Island) das Tauwetter schubweise verstärkt haben. Die vulkanische Aktivität der Insel war am Ende der letzten Kaltzeit rund 50mal so groß wie heute. Möglicherweise lösten bereits schmelzende Eismassen selbst diesen intensiven Vulkanismus aus: Der abnehmende Druck der Gletscherdecke konnte es dem Magma erleichtert haben, zur Erdoberfläche aufzusteigen.

Als sich durch das schmelzende Eis die Dichteverhältnisse der Wassermassen im Südmeer veränderten, entstand eine Strömung, die entlang der südamerikanischen Küste nordwärts in die Karibik führte, wobei sich das Wetter erwärmte. Gleichzeitig verstärkte sich der warme und sehr salzhaltige Agulhas-Strom, der aus dem Indischen Ozean um das Kap der Guten Hoffnung in Richtung Brasilien floss. (Dieser Weg war zuvor durch Eismassen blockiert.) Beide Strömungen erreichten den hohen Norden, wo 1000 Jahre später das jetzt salzigere Wasser des Nordatlantik die in den Tropen gespeicherte Wärme abgab und in die Tiefe sank, wo es nach Süden abfloss. Im Gegenzug wurde an der Oberfläche warmes Wasser aus dem Süden angesaugt – der Golfstrom war „in Gang gesetzt“ (etwa 14 700 Jahre vor heute).

Die Niederschläge fielen jetzt reichlicher, die Temperaturen stiegen. Die offene Tundra verschwand zunehmend, Bäume wanderten ein und der Meeresspiegel stieg.

Rasche Wechsel von Kalt- und Warmzeiten prägten das Klima am Ende der letzten Eiszeit. In Grönland wurden Temperaturschwankungen um 10 bis 15°C festgestellt – und das innerhalb von 20 Jahren. Die traditionelle Theorie von Veränderungen der irdischen Umlaufbahn um die Sonne konnte nicht die Erklärung dafür sein. Diese waren viel zu langsam. Ausgeprägte Schmelzintervalle stimmen dagegen oftmals zeitlich mit Vulkanausbrüchen überein.

Schließlich stand die atlantische Klimapumpe plötzlich still. Die derzeit favorisierte Theorie besagt, dass Gletscherbarrieren immense Mengen von Schmelzwasser u. a. dort, wo in Nordamerika heute die Großen Seen liegen, angestaut hatten. Als sich das Eis weiter zurückzog, bahnten sich die gewaltigen Mengen Süßwasser ihren Weg in den Atlantik und schoben sich wie ein Deckmantel über das wärmere Salzwasser des Ozeans, das dadurch nicht mehr absinken konnte. Das brachte das Golfstromsystem wieder zum Erliegen.

Es kam auf der Nordhalbkugel zu einem Temperatursturz um fast 10°C. Für mehr als 1000 Jahre – von etwa 12 730 bis 11 700 v. h. – herrschten in Europa und im Nahen Osten wieder fast eiszeitliche Verhältnisse. In Nordafrika gab es eine Trockenperiode. Gletscher und Permafrostböden breiteten sich wieder aus, zeitweise eroberten Steppen Gebiete zurück, Wälder überdauerten nur an geschützten Standorten, bis schließlich vor 11 690 Jahren die bis heute andauernde Warmzeit, das Holozän, begann.

Das Holozän

Der Begriff „Holozän“ stammt aus dem Griechischen und bedeutet „das völlig Neue“. Noch einmal gab es einen großen Kälterückfall auf der Nordhalbkugel (vor 10 970 bis 10 200 Jahren). Die im grönländischen Eis versiegelten Daten zeigen einen Klimasturz um fast 10°C innerhalb eines Jahrzehnts, eine erneute Klimakatastrophe. Das plötzliche Absinken der Temperaturen hatte Auswirkungen auf Regionen des gesamten Erdballs.

Vor gut 10 000 Jahren fand dann wieder eine großklimatische Umstellung statt. Das trocken-kalte Klima wich einem warm-feuchten. Die Erwärmung lief in kurzen, schnellen, dramatischen Schritten ab. Temperatursprünge erfolgten zunächst in einem Hin und Her, als wäre das Klima noch unschlüssig, in welche Richtung es sich bewegen soll. Die Klimaschwankungen waren überwiegend die Folge der Veränderung der Sonnenaktivität und des zum Teil sehr unterschiedlichen Vulkanismus. Deren Effekt war aber zu gering, um den folgenden globalen Temperaturanstieg bis vor 6500 Jahren insgesamt zu erklären. Er war wohl eine Reaktion auf die zurückweichenden Eisschilde. Treibhausgase, vor allem Kohlenstoffdioxid, dürften nach Meinung vieler Forscher als entscheidende Verstärker gewirkt haben.

Nach Tausenden Jahren extremer Trockenheit ergrünten auch die Ebenen der östlichen Sahara. Diese war bereits vor rund sieben Millionen Jahren entstanden, als durch die Schrumpfung des Mittelmeervorläufers Tethys weniger Meeresluft das Land erreichte. Dadurch regnete es im Norden Afrikas weniger – und die Wüste wuchs. Anscheinend aber gab es seitdem mehrere Phasen mit einem deutlich feuchteren Klima, in denen selbst in der Sahara Bäume wuchsen.

So hatten auch vor 10 000 Jahren die Niederschläge durch die Verstärkung des afrikanischen Monsuns zugenommen. Es bildeten sich Flüsse und Seen, deren Wasserstände vor etwa 10 000 bis 8000 Jahren ihr Optimum erreichten. Der Grundwasserspiegel stieg – gute Voraussetzungen für Leben. 10 000 bis 6000 Jahre alte Felszeichnungen von schwimmenden Menschen und Großtieren im Süden Ägyptens und im Sudan bezeugen, dass damals eine feuchte Savannenlandschaft den Norden Afrikas prägte. Vor rund 7000 Jahren gingen die Niederschläge zunächst allmählich zurück. Wegen des nichtlinearen Zusammenspiels von Regen und Vegetation kehrte die Trockenheit und damit die Wüstenbildung in Nordafrika langsam zurück.

Durch diesen großen Klimawechsel im ansonsten ruhigen Holozän wandelte sich die Sahara vor ungefähr 5000 Jahren zunächst allmählich, erst vor etwa 4000 Jahren abrupt innerhalb weniger Jahrhunderte, von einer besiedelten Savanne mit zahlreichen Seen in jene Stein-, Salz- und Sandwüste, die sie heute noch ist. Ein Teil der Menschen, die vorher hier gelebt hatten, zog nach Süden in den heutigen Sudan, ein anderer Teil ins Niltal, wo sie vielleicht sogar zur Urzelle der pharaonischen Kultur wurden.

Der anhaltende Temperaturanstieg in den letzten 6500 Jahren geht wohl auf wachsende Treibhausgaskonzentrationen infolge der „Erfindung“ der Landwirtschaft zurück. Vor allem seit der Einführung bedeutender landwirtschaftlicher Neuerungen – allen voran Rodung und Reisbewässerung – zeigte die Konzentrationskurve bei Kohlenstoffdioxid und Methan in der Atmosphäre beständig nach oben. Dadurch wurde ein natürlicher Abkühlungstrend, verursacht durch die orbitalen Zyklen der Erde (speziell in hohen nördlichen Breiten), weitgehend kompensiert und der Planet um durchschnittlich fast 0,8 Grad Celsius aufgeheizt – das ist mehr als die 0,6 Grad Celsius, die im 20. Jahrhundert auf Grund der raschen Industrialisierung hinzukamen. Als logische Folge der Erwärmung trug auch die Entgasung aus den Meeren zum Anstieg der Kohlenstoffdioxid-Konzentration in der Luft bei. Meeresgeologen nehmen an, dass sich zudem Freisetzungen von Methanhydraten vor der norwegischen Küste ereigneten. Die großen Eisdecken zogen sich in den folgenden 2000 Jahren auf ihre jetzige Ausdehnung zurück.

Während der letzten 1200 Jahre gab es keineswegs ein stabiles Klima, sondern wiederholt kurzfristige Klimaschwankungen. Um das Jahr 800 herrschten etwa dieselben Klimabedingungen wie im späten 18. Jahrhundert. Es begann die mittelalterliche Warmphase (bis etwa 1200 n.Chr.), in der eine aktivere Sonne die Temperaturen ansteigen ließ. Im 10. Jahrhundert wurde z. B. im Süden Englands Wein angebaut. Grönland wurde zur gleichen Zeit wegen seines milden Klimas von den Wikingern besiedelt, weil ihnen Island zu unwirtlich war. In den Alpen waren die Gletscher fast vollständig verschwunden, in Skandinavien gab es gar keine mehr. Die Epoche milden Klimas war allerdings sehr kurz, so dass wenig später die Gletscher wieder vordrangen.

In der Kleinen Eiszeit, die im 15. Jahrhundert vor allem im zentralen und östlichen Pazifik stattfand, im 17. Jahrhundert in Europa und Teilen Nordamerikas, sanken die Temperaturen stark ab. Extrem kalte Winter ließen damals die Flüsse zufrieren. Das Meer zwischen Dänemark und Schweden war zugefroren; Alpengletscher heute kaum noch vorstellbaren Ausmaßes traten auf. Die Kälte, vor allem nasskalte Sommer, brachte für die Menschen große Ernteausfälle und Hungersnöte. Mit der deutlichen Klimaveränderung in Europa deckt sich eine große Dürre in Nordamerika am Ende des 16. Jahrhunderts. In einigen Regionen dauerte sie 10 oder sogar bis zu 20 Jahre.

Das Phänomen der Kleinen Eiszeit beruhte möglicherweise zu einem großen Teil auf einer verminderten Sonnenaktivität; damals verschwanden fast alle Sonnenflecken. Verstärkt wurde der Trend durch starke vulkanische Aktivität, wodurch die Atmosphäre zusätzlich eingetrübt und die Einstrahlung behindert wurde. Dies setzte einen abkühlenden Faktor obendrauf. Einige Wissenschaftler vermuten, dass die ozeanische Zirkulation im Nordatlantik eine wichtige Rolle spielte.

Während in der vorindustriellen Zeit, also bis ca. 1800, vor allem schwankende Sonnenaktivitäten und vulkanische Eruptionen ganz wesentlich über Klimaänderungen entschieden, hat sich das seit der Industrialisierung jedoch geändert. Heute resultieren die Durchschnittstemperaturen zunehmend aus der menschengemachten Freisetzung von Treibhausgasen.

Klima heute

Die aktuelle globale, menschengemachte Erwärmung ist einzigartig. So warm wie heute war das globale Klima letztmals vor 128 000 Jahren zu Beginn der letzten Warmzeit. Ein Großteil der Erwärmung fand nach 1950 statt. Die Zeitspanne von 2015 bis 2019 war der wärmste jemals gemessene Fünfjahreszeitraum und die Zeitspanne zwischen 2010 und 2019 das wärmste jemals erfasste Jahrzehnt, teilte die Weltwetterorganisation der UN mit.

Unser Planet wäre, so ergeben Simulationen, fast zwei Grad Celsius kühler, als er tatsächlich ist. Die Temperaturen in den nördlichen Teilen Nordamerikas und Europas lägen ohne die überraschenden Knicks in den Konzentrationskurven der Treibhausgase Kohlenstoffdioxid und Methan heute sogar um drei bis vier Grad Celsius niedriger. Vielleicht hätten sich in Teilen Nordostkanadas schon vor einigen tausend Jahren kleine Eisschilde gebildet. Stattdessen blieb das Klima seit Beginn der jetzigen Warmzeit, dem Holozän, weltweit warm und stabil, jedenfalls im Vergleich zu den vorhergehenden 10 000 Jahren.

Wir befänden uns also schon gut und gern auf halbem Weg zur nächsten Eiszeit, hätten nicht jahrtausendelange landwirtschaftliche Aktivitäten und die spätere Industrialisierung über die Treibhausgase gegengesteuert.

REM

Das Rätsel der Materie

Schon im alten Griechenland stellten sich die Philosophen die Frage, was denn dieser Stoff, aus dem die Welt besteht, sei. So glaubte Thales von Milet, dass alle materiellen Stoffe Aspekte des Urstoffes Wasser seien, für Anaximander war es die Luft, für Heraklit das Feuer. Andere wiederum vermuteten die Erde als Urstoff. Aus diesen Annahmen entwickelte sich die Vier-Elemente-Theorie, die einen kontinuierlichen, alles umfassenden Urstoff, bestehend aus den vier Elementen Feuer, Wasser, Erde und Luft, postuliert. Diesen entsprechen die vier Zustände der Materie: fest, flüssig, gasförmig und Plasma.

Die Anhänger einer konkurrierenden Denkschule im antiken Griechenland, die Atomisten, vertraten hingegen die Position, dass die gesamte Natur aus elementaren, kleinsten und unteilbaren Teilchen bestehe. Demokrit, ein Schüler des Naturphilosophen Leukipp, nannte sie Atome (nach griechisch: atomos = unteilbar) und wurde zum Begründer der Atomtheorie. Wie andere griechische Materialisten sah er in der Materie das Unveränderliche und Grundlegende gegeben: „Nur scheinbar ist ein Süß oder Bitter, nur scheinbar hat es Farbe; in Wirklichkeit gibt es nur Atome und den leeren Raum.“ Im 19. Jahrhundert lieferte die chemische Forschung immer stärkere Argumente für die Atomtheorie Demokrits.

Das Atom

Die traditionelle Sichtweise konstatiert, dass Materie aus kleinen Grundbausteinen, Atomen und Molekülen, besteht. Jedes Atom sollte jeweils eine bestimmte Masse und Größe haben und sich bei chemischen Umwandlungen nicht verändern (Konstanz). Ein typisches Atom besitzt einen Durchmesser von einem Hundertmillionstel Zentimeter (10-8 cm).

Ende des 19. Jahrhunderts entdeckte man, dass das Atom nicht fundamental ist, sondern offenbar aus einer positiv geladenen Masse im Kern und einer negativ geladenen Hülle besteht. Ernest Rutherford schlug 1910 ein „planetares“ Modell des Atoms vor: Ein Atomkern, der aus positiv geladenen Protonen und (außer beim Wasserstoff) ungeladenen, also elektrisch neutralen Neutronen besteht, und einer Hülle mit negativ geladenen Elektronen. Da die Anzahl der Protonen und Elektronen in einem Atom normalerweise immer jeweils gleich ist, ist ein Atom insgesamt elektrisch neutral. Beide, Protonen und Elektronen, bestimmen die Form des Atoms, seine weiteren chemischen Eigenschaften, seine Dynamik.

Die starke Kernkraft verhindert, dass die Kernteilchen (Nukleonen) – also Protonen und Neutronen – entgegen der abstoßenden elektrischen Kraft der positiv geladenen Protonen auseinander fliegen und ermöglicht so stabile Atomkerne. Deren Durchmesser ist mehr als 20 000- bis 150 000-mal kleiner als der der Elektronenhülle. Anschaulich dargestellt: Hätte das Atom die Größe eines Golfplatzes (80 Hektar), wäre der Kern ungefähr so groß wie eines seiner Löcher (knapp 11 Zentimeter). Aber in diesem winzigen Atomkern sind mehr als 99% der Masse des gesamten Atoms konzentriert.

Nach der Entdeckung des Elektrons (1897), des Protons (1917) und des Neutrons (1932) schien der Aufbau der Materie verstanden. Für die Alltagswelt gilt dies auch annäherungsweise.

Bau der Nukleonen

In den 1960er Jahren glaubten noch viele Physiker, die Bausteine des Atomkerns (Nukleonen) seien so etwas wie kleine Kügelchen, durch und durch mit derselben Materie angefüllt. Murray Gell-Mann und George Zweig postulierten als Erste, dass sie aus noch fundamentaleren Partikeln aufgebaut sind und über ein äußerst komplexes Innenleben verfügen. Die Quantenchromodynamik (QCD) erklärt heute den Aufbau der Atombestandteile sowie die Kräfte (Wechselwirkungen) zwischen ihnen.

In einem Proton oder Neutron befinden sich demnach jeweils drei Massekonzentrationen, die als Quarks bezeichnet werden. Das Proton enthält zwei u- und ein d-Quark (uud), das Neutron zwei d- und ein u-Quark (ddu), die normalerweise ständig im Inneren der Kernteilchen eingeschlossen sind. Diese Quarks heißen Valenzquarks, da sie den Teilchen ihre äußeren Eigenschaften wie Teilchenart und Ladung verleihen. Andere, schwerere Quarks sind am Aufbau unserer Welt, der „normalen“ Materie, praktisch nicht beteiligt und haben nur subtile Rückwirkungen auf das physikalische Verhalten der u- und d-Quarks.

Quarks verhalten sich wie punktförmige Objekte – in dieser Beziehung ähneln sie den Elektronen (s. u.) – und sind auf jeden Fall kleiner als ein Tausendstel, manchen Messungen zufolge sogar kleiner als 0,2 Tausendstel der Protonengröße. Sie sind also sehr, sehr winzig – vielleicht haben sie sogar eine Ausdehnung von null, dem experimentell nichts widerspricht. Ihr Abstand voneinander in einem Kernteilchen beträgt etwa ein Femtometer (10-13 Zentimeter). Entfernen sich die Quarks voneinander, so beginnen sie sich anzuziehen. Es ist so, als seien sie durch ein unsichtbares Gummiband verbunden, das ein zu starkes Auseinanderdriften verhindert, und das erschlafft, wenn Quarks eng beisammen sind. Der einzige Weg Quarks zu trennen, erfordert Energien, wie sie nur kurz nach dem Urknall herrschten und heute fast nur noch im Inneren von Neutronensternen zu finden sind.

Die Elektronen sind unendlich kleine Massepunkte, mindestens tausendmal so klein wie ein Atomkern – und der ist bekanntlich schon zehntausendmal so klein wie ein Atom. Sie liefern den kleinen Rest für die Masse des Atomkerns (weniger als 1%). Die Elektronen gehorchen, wie auch die Quarks, dem sogenannten Pauli-Prinzip, das besagt, dass sich diese Teilchen nicht weiter verdichten lassen. Sie „kreisen“ in festen Schalen (und nicht beliebig) um den Atomkern. In jeder Schale, die jeweils durch eine bestimmte Energie gekennzeichnet ist, findet nur eine bestimmte Anzahl Elektronen Platz. (Die relativ schwache elektromagnetische Kraft hält sie auf ihrem Energieniveau.)

Die Größe eines Atoms wird also durch seine Elektronenhülle festgelegt. Erst durch den Abstand der Schalen vom Atomkern werden die Atome so „riesenhaft“, verglichen mit der Größe des Kerns. Der leere Raum, in dem die Elektronen herumwirbeln, ist ungefähr eine Billion Mal so groß wie dessen Rauminhalt. Diese durch das Pauli’sche Ausschließungsgesetz erzwungene universelle Größe der Atome bringt ein wesentliches Element der Stabilität in die Natur ein. Ohne dieses gäbe es keine chemischen Elemente, keine Materie, wie wir sie kennen.

Im theoretischen Bild sind Elektronen und Quarks keine kleinen Kugeln mehr, sondern mathematische Punkte, die mit Kraftfeldern ausgestattet sind. Sie beanspruchen nach keiner Richtung hin Raum, entfalten aber ihren Einfluss innerhalb der mit ihnen verknüpften Kraftfelder. (Dass es Teilchen ohne Rauminhalt gibt, wird sich nie beweisen lassen, denn es wird niemals möglich sein, ein Teilchen von der Größe Null zu messen.)

Zumindest bis zu einer Grenze von etwa 10-16 Zentimeter sind Quarks wie die Elektronen strukturlos. Vielleicht aber bestehen diese im Standardmodell als punktförmig und unteilbar geltenden Teilchen aus noch kleineren Komponenten. Forscher haben schon zahlreiche Vorschläge für hypothetische Teilchen gemacht, aus denen sie zusammengesetzt sein könnten. Sie tragen unterschiedliche Namen, werden aber alle unter dem Begriff Preonen zusammengefasst. Falls diese Vermutung zutrifft, wäre das heutige Standardmodell der Elementarteilchentheorie in Frage gestellt. (Aber auch die Preonenmodelle haben ihre Probleme.)

Das Standardmodell der Teilchenphysik, die umfassende Theorie über die fundamentalen Eigenschaften der Materie, erklärt nicht nur die Fermionen Elektron, Proton und Neutron, also die Atombausteine, sondern auch die zwischen ihnen wirkenden Naturkräfte (Wechselwirkungen). Für diese ist ein fundamental anderer Teilchentyp, die so genannten Bosonen, zuständig. Diese vermitteln die Kräfte zwischen den Materiepartikeln bzw. Bausteinen der Materie, indem sie, bildlich gesprochen, zwischen den Fermionen hin- und herflitzen. Ohne sie wäre die Welt nur eine ungeordnete Ansammlung von Materiekrümeln. Erst die Kräfte geben der Welt ihre Gestalt und bestimmen, wie sich die Materieteilchen miteinander verbinden und wie sie sich durch den Raum bewegen. Photonen beispielsweise sind die Überträger der elektromagnetischen Kraft, die Gluonen („Klebeteilchen“ – von engl.: glue = Leim) die der starken Wechselwirkung, die ja die Quarks in den Nukleonen gewissermaßen zusammenklebt.

Die Grundlage der uns wohlvertrauten („gewöhnlichen“) Materie, aus der auch wir selbst zusammengesetzt sind, bilden also die leichten Up- und Down-Quarks sowie die leichten Elektronen. Dazu kommen in unserer Alltagswelt noch Gluon, Photon und das Higgs-Boson (s. u.) vor.

Quarksee

Protonen und Neutronen sind aber keineswegs die einfachen Systeme aus drei Quarks, sondern weitaus komplexer. Um das Trio wabert ein See aus kurzlebigen Quark-Antiquark-Paaren, die ständig gewissermaßen aus dem Nichts entstehen und Gluonen austauschen und nach winzigen Bruchteilen von Sekunden gleich wieder verschwinden. Diese Quantenfluktuationen kann man sich wie ein ununterbrochenes submikroskopisches Feuerwerk vorstellen. Das Vakuum „bebt“. Erst wenn die Physiker einen „Filter“ aufsetzen, der das kurzlebige Werden und Vergehen ausblendet, erkennen sie im Proton das einfache Bild von drei stabilen Quarks.

Ein Vakuum ist für Physiker kein völlig leerer Raum und lässt sich auch nicht erzeugen. Selbst wenn man alle Materie entfernt, verfügt er immer noch über eine gewisse Energiedichte. Physiker verstehen unter einem „Vakuumzustand“ daher den Zustand niedrigster Energie eines Systems. Die Energie des Vakuums wird repräsentiert durch virtuelle Teilchen („virtuell“ im Sinne von „möglicherweise vorhanden“), die spontan ständig als Teilchen-Antiteilchen-Paare entstehen und wieder verschwinden (Fluktuationen). Ihnen steht nicht genügend Energie zur Verfügung, um als reale Teilchen in Erscheinung zu treten. Das Vakuum, so sagt man, verleiht Energie – viel für kurze, wenig für lange Zeit. Da die virtuellen Teilchen nur für den Bruchteil einer Sekunde existieren, widerspricht dies nicht dem Energiesatz bzw. dem Impulserhaltungssatz der klassischen Physik, der die Entstehung von Materie und Energie aus dem Nichts verbietet. In der Quantenmechanik muss nämlich die Energieerhaltung nicht für begrenzte Zeitintervalle, sondern nur über längere Zeiträume gelten.

Protonen und Neutronen sind also eigentlich eine klumpige, brodelnde Suppe aus realen und virtuellen Quarks (Seequarks) und ihren Antiteilchen sowie Gluonen, die die starke Kernkraft zwischen ihnen vermitteln. Rechnerisch beschreibt man die Nukleonen darum im Rahmen des Konstituenten-Quark-Modells, in dem alle diese Teilchen samt ihren Einflüssen zusammengefasst werden. Die Masse der drei Valenzquarks ist für die Masse der Neutronen und Protonen und für die gesamte Atommasse fast vernachlässigbar. Diese ergibt sich vor allem aus der enorm starken Bindungsenergie, aus der somit stammt fast die gesamte Masse der uns vertrauten Materie um uns herum stammt.

Masse und Energie sind laut Albert Einsteins Relativitätstheorie zwei Seiten einer Medaille (E = mc2). Masseteilchen sind dementsprechend etwas wie „gefesselte“ oder „eingekapselte“ Energie. Daher werden Teilchenmassen der leichteren Vergleichbarkeit halber auch oft in der Einheit Elektronenvolt (eV) angegeben.

Masse

Wir müssen zwei Massebegriffe unterscheiden: Zum einen ist da die mikroskopische Masse, die wir aus dem Alltag kennen. Wenn ein Gegenstand 10 Kilogramm auf die Waage bringt, dann ergibt sich seine Masse aus den Atommassen. Sie entstehen, wie beschrieben, aus der Bindungsenergie im Inneren der Protonen und Neutronen – entsprechend der Äquivalenz von Masse und Energie.

Zum anderen ist da die Masse der Elementarteilchen, also die Masse von fundamentalen Partikeln wie Elektronen, Quarks oder den Kraftteilchen. Das Standardmodell weist allen Elementarteilchen grundsätzlich die Masse 0 zu – eine der rätselhaftesten Eigenschaften der Teilchen, die Konsequenz aus dem symmetrischen Prinzip (Ordnung), auf dem die gesamte Theorie der Teilchenphysik beruht. Danach darf es zwischen den Teilchen keine Asymmetrie geben. Teilchen mit Ruhemasse 0 werden als masselos bezeichnet. Gemäß Einsteins Spezieller Relativitätstheorie bewegen sich masselose Teilchen mit Lichtgeschwindigkeit. Wenn aber alle Teilchen sich mit Lichtgeschwindigkeit bewegen, haben sie keine Möglichkeit, eine Bindung einzugehen. Die ganze zusammengesetzte Materie bekommt erst eine Chance, wenn sich Teilchen viel langsamer als mit Lichtgeschwindigkeit bewegen.

Um die Standardtheorie zu ergänzen und die Massen der Fermionen in die Theorie als Parameter einzufügen, haben die Physiker ein Quantenfeld (das Higgs-Feld, benannt nach dem theoretischen Physiker Peter Higgs) eingeführt, das den ganzen Raum gleichmäßig erfüllt und in das folglich alle Teilchen eingebettet sind. Durch die Interaktion mit diesem Feld wird den eigentlich masselosen und lichtschnellen Teilchen ihre träge Masse verliehen. Bei diesem Prozess wird gleichsam Energie aus dem Vakuum herausgesaugt und an das Elementarteilchen abgegeben. Je stärker das Teilchen mit dem Feld wechselwirkt, umso langsamer kommt es voran, d. h. umso größer ist seine Masse. Da ein Photon oder Gluon keine Wechselwirkung mit dem Higgs-Feld haben, können sie weiter mit Lichtgeschwindigkeit zwischen Elektronen bzw. Quarks vermitteln.

Da die Physiker in der Standardtheorie jedem Feld ein Teilchen zuordnen (dem elektromagnetischen z. B. das Photon), musste auch dem Higgs-Feld zwangsläufig ein Teilchen, das Higgs-Boson, zugewiesen werden. Es wurde inzwischen nachgewiesen und tritt als eine extrem kurzlebige Anregung des Feldes in Erscheinung. Es ist aber kein Bestandteil von Materie oder von Wechselwirkungen wie die übrigen Teilchen des Standardmodells, zählt also weder zu der einen noch zu der anderen Kategorie – ein Spezialfall, der noch viele Fragen offen lässt.

Nach heutiger Vorstellung lag das Higgs-Feld kurz nach dem Urknall in einem Zustand hoher Symmetrie (in geordnetem Zustand) vor. Alle Elementarteilchen waren bei den damals sehr hohen Energien dementsprechend masselos. Erst nach einer Abkühlung auf 1015 Grad Celsius, als sich die elektroschwache Kraft aufspaltete, ging das Higgs-Feld spontan aus dem Vakuum hervor. Man sagt: Es wurde für Teilchen spürbar. Anschaulich gesprochen trifft ein Teilchen, das sich durch den Raum bewegt, ständig auf Higgs-Bosonen. Solche Vorgänge verlangsamen das Teilchen, und diese Trägheit nennen wir Masse.

Ohne das Higgs-Feld wären also alle Elementarteilchen masselos, gäbe es keine Atome und somit auch nicht die „gewöhnliche“ Materie. Sich dieses Quantenfeld gleichermaßen korrekt und anschaulich vorzustellen, ist nicht möglich. So verwendet man unterschiedliche Metaphern für das Feld wie z. B. „zäher Kuchenteig“ oder „Honig“, um seine Wirkung zu verdeutlichen.

Der Higgs-Mechanismus ist mathematisch sehr ausgefeilt und gut verstanden. Wegen der fundamentalen Bedeutung dieses Feldes für unser Verständnis der Welt – sowohl der Naturgesetze (Struktur der Materie) als auch die Geburt des Universums (Anfangsbedingungen) – war die Entdeckung des Higgs-Teilchens die wichtigste Pioniertat der physikalischen Grundlagenforschung. Sein Fund ist der jüngste Beleg dafür, dass theoretische und mathematische Überlegungen große Erklärungskraft besitzen und sogar neue Teilchen und neue physikalische Mechanismen voraussagen können – ein großer Triumph der theoretischen Physik.

Teilchen-Welle-Dualismus

Nach der Quantenmechanik gibt es subatomare Teilchen im klassischen und anschaulichen Sinn als etwas Substanzielles, als beharrliche Träger von dynamischen und raumzeitlichen Wesenseigenschaften, nicht. Sie besitzen also keine Individualität; ihre Eigenschaften sind nur im dynamischen Zusammenhang zu begreifen – ausgedrückt in Bewegung, Wechselwirkung und Umwandlung – und lassen sich nur noch mit Zahlen und Gleichungen beschreiben. Das stimmt nicht mehr mit dem gesunden Menschenverstand überein.

1802 hatte Thomas Young mit der Beugung von Licht an einem Doppelspalt dessen Wellennatur bewiesen: Läuft ein Lichtstrahl durch zwei Spalte, kommt es auf einem Beobachtungsschirm dahinter zu einem Interferenzmuster aus helleren und dunkleren Streifen. Ein solches Streifenmuster kennen die Physiker sonst nur von Wellenerscheinungen: Wenn z. B. eine Wasserwelle auf ein Hindernis mit zwei Löchern prallt, überlagern sich dahinter die beiden Teilwellen. Ein solches Muster entsteht auch, so weiß man inzwischen, wenn man anstatt Photonen Elektronen oder andere Teilchen durch einen Doppelspalt schickt. Das beweist, dass auch Materie Welleneigenschaften hat, eine Einsicht, die erstmals 1924 Louis-Victor de Broglie verkündete. Zusätzlich zu Eigenschaften wie Masse und Ladung besitzt also jedes Teilchen eine Wellenlänge und kann gestreut werden. Diese Grundaussage der Quantenmechanik ist inzwischen in unzähligen Experimenten eindrucksvoll belegt worden.

Erwin Schrödinger gelang es, den Quantenzustand eines Teilchens durch einen mathematischen Kunstgriff darzustellen, der wellenartiges Verhalten zeigt. Damit war es möglich, beispielsweise ein Elektron oder Atom ähnlich einer Welle zu beschreiben, die über ein ganzes Gebiet verteilt ist. Schrödingers 1926 formulierte Wellengleichung ist die grundlegende Formel der Quantentheorie, mit der seitdem quantenphysikalische Erscheinungen und im Prinzip sogar das ganze Universum beschrieben werden kann.

Beim Doppelspaltversuch ist also das, was durch beide Spalten geht, eigentlich kein physikalisches Teilchen, aber auch keine klassische Welle, sondern eine sogenannte Wellenfunktion – eine abstrakte mathematische Beschreibung für den Zustand eines Teilchens, in diesem Fall seine Position. Sie liefert in diesem Fall die Wahrscheinlichkeiten für die Orte auf dem Schirm, an denen das Photon vorgefunden werden könnte. Die Physiker sprechen von Wahrscheinlichkeitswellen.

Die Wellenfunktion für ein Elektron ist räumlich ausgedehnt, so dass es nicht einen bestimmten Platz einnimmt, sondern sich an vielen möglichen Orten befinden kann. Seine Position ist quasi über einen bestimmten Bereich „verschmiert“. Wenn schon das Elektron keine räumliche Ausdehnung hat (es ist punktförmig) – die Wahrscheinlichkeitswolke, die zu ihm gehört, besitzt ganz gewiss eine. Auf bestimmten Bahnen (übereinander liegenden Schalen) laufen die Elektronen demnach als „stehende Welle“ um den Atomkern. Bei einer Messung „kollabiert“ die Wellenfunktion auf irgendeine Weise und erhält eine greifbare Größe. Einstein konnte und wollte diese Aussagen der Quantenmechanik nicht akzeptieren.

Aus der Schrödinger-Gleichung kann man durch einen mathematischen Trick teilchenähnliche Zustände herausholen. Sie entsprechen gewissermaßen den Stellen, wo die Wahrscheinlichkeitswellen konstruktiv interagieren. Die kontinuierliche Gleichung hat also in diesem Fall diskrete Lösungen, die quantisierte Materie beschreiben.

Teilchen und Wellen – das ist und bleibt das Grundproblem der Quantenphysik. Beide Positionen beruhen auf unterschiedlichen Auffassungen der Wirklichkeit, die beide für eine Beschreibung der Natur je nach der zugrunde liegenden Fragestellung notwendig sind. Es sind zwei sich ergänzende Beschreibungen derselben Wirklichkeit, von der jede nur teilweise richtig ist und eine beschränkte Anwendungsmöglichkeit hat. Auf der atomaren und subatomaren Skala wird der Unterschied zwischen Teilchen und Wellen verwischt, d. h. alles, was im Bereich des mikroskopisch Kleinen existiert, ist Welle und Teilchen zugleich. Man kann auch sagen, beispielsweise ein Elektron ist weder ein Teilchen noch eine Welle, aber es kann in einigen Situationen teilchenähnliche, in anderen wellenähnliche Aspekte haben.

Tatsächlich versteckt sich das Teilchen sozusagen in der Welle. Deren Intensität gibt an, mit welcher Wahrscheinlichkeit es sich an einem bestimmten Ort aufhält. Auf gewisse Weise existiert das Teilchen aber nicht wirklich. Objektiv bzw. physikalisch fundamental scheint nur die Welle zu sein. Korrekter: Das Verhalten von Teilchen wie Elektronen lässt sich immer mit einer Wellengleichung beschreiben – und manchmal auch als Teilchen interpretieren. Der Teilchenbegriff ist somit vermutlich rein subjektiv – subjektiv für den Teil der Welt, den wir klassisch sehen. Er ist das Relikt eines Weltbilds, das von den altgriechischen Atomisten abstammt und mit den Theorien Isaac Newtons seinen Siegeszug vollendete.

Jedes Objekt muss demnach als eine Materiewelle aufgefasst werden – auch makroskopische Körper von Bakterien bis Autos und Menschen. Für alle praktischen Zwecke ist das Wellenäquivalent eines solchen Objekts aber so klein, dass es vernachlässigt werden kann. Beim Elektron beträgt die Wellenlänge etwa ein Millionstel Zentimeter, beim Bakterium hat sie nur noch die Größe eines Atomdurchmessers und bei einem Fußball praktisch unmessbare 10-32 Zentimeter. Materiepartikel verbergen also ihre Wellennatur, solange die ihnen zugeordnete Wellenlänge klein ist. Aufgrund dessen überwiegt im Makrokosmos der Teilchenaspekt.

Was die Wellenfunktion aber eigentlich ist, stellt eine zentrale Frage der Quantenmechanik dar und bleibt bis zum heutigen Tag ein gewaltiges und heiß umstrittenes Problem. Das Phänomen ist anschaulich schwer zu fassen und sperrt sich bis heute hartnäckig dem menschlichen Alltagsverstand.

Quantenfeld

Newton mutmaßte, dass Schwerkraft über riesige Entfernung nicht direkt wirkt, sondern durch „die Vermittlung von etwas anderem, das nicht materiell ist“. Fast zwei Jahrhunderte später folgte Michael Faraday einem ähnlichen Gedankengang, als er Elektrizität und Magnetismus mittel sogenannter Kraftlinien oder Felder beschrieb. Für ihn stand nicht mehr Materie im Mittelpunkt der Physik; die eigentliche Realität bildeten die Kraftlinien. Materie sei nur die umgangssprachliche Bezeichnung für die Dichte von an sich ununterscheidbaren Feldlinien.

Ende der 1920er Jahre wurde die Quantentheorie von Bohr, Heisinger und Schrödinger, um deren Deutung Experten immer noch streiten, bald überholt von der Quantenfeldtheorie. Sie vereinigt quantenmechanische Prinzipien mit der Theorie klassischer Felder und liefert die begriffliche Grundlage für das Standardmodell der Teilchenphysik, die mathematisch exakt die fundamentalen Teilchen und die zwischen ihnen wirkenden Kräfte (Wechselwirkungen) und damit auch die Materie – also all das, was die Welt im Innersten zusammenhält – beschreibt. Demnach besteht die gesamte materielle Welt aus Quantenfeldern, die die Raumzeit durchdringen. Sie verhalten sich nicht wie klassische Felder und besitzen keinerlei materielle Basis, verfügen aber – wie Materie – über Energie und Impuls und können in Wechselwirkung mit Materie treten. So lassen sich Gluonen beispielsweise auch als Felder interpretieren, die die Quarks in den Nukleonen zusammenhalten.

Die Quantenfeldtheorie bildet heute das Rahmenmodell für alle ernstzunehmenden Theorien der Elementarteilchen, zu der sowohl das Standardmodell als auch alternative Theorien (wie die Superstringtheorie) gehören. Sie hat eine sehr hohe Genauigkeit (10-11) und gilt neben der Allgemeinen Relativitätstheorie (Genauigkeit von 10-14) als die exakteste physikalische Theorie überhaupt. (Allerdings ignoriert sie Gravitationseffekte.)

Jedes Quantenfeld besitzt ein ihm zugehöriges Teilchen (z. B. das elektromagnetische Feld das Photon), das einer Anregung (einem „Schwingungszustand“) des Energiefeldes entspricht. Bosonen kann man so als gequantelte Energiepakete (Quanten) von Kraftfeldern betrachten. Somit scheint die Unterscheidung zwischen Teilchen und Feldern künstlich zu sein. Auch unter diesem Aspekt wird der Begriff eines Teils oder erst recht eines Teilchens bedeutungslos. Es hat also wenig Sinn, lokalisierte Teilchen als die Grundelemente der Wirklichkeit anzunehmen. Darum ist die Bezeichnung Teilchenphysik eigentlich irreführend. Man kann zur Not von Quantenteilchen sprechen, obwohl diese praktisch nichts mit klassischen Partikeln gemein haben. Konsequenterweise sollte man den Begriff ganz fallenlassen. Felder und Energie sind also das grundlegende Substrat der Materie und damit der physikalischen Wirklichkeit geworden.

Bei einem Quantenfeld handelt es sich aber um abstrakte mathematische Ausdrücke, die keine bestimmte Messwerte darstellen. Sie fluktuieren als Folge der Unschärfe der Natur um bestimmte Mittelwerte. Daher repräsentieren sie zwar physikalische Werte, doch diese lassen sich nicht bestimmten Punkten der Raumzeit zuordnen, sondern nur „verschmierten“ Gebieten. Die vermeintlich fundamentalen Quantenfelder legen nicht einmal Wahrscheinlichkeiten fest; das tun sie erst, wenn sie mit dem sogenannten Zustandsvektor kombiniert werden, der das gesamte System beschreibt und sich nicht auf einen bestimmten Ort bezieht. Es ist anschaulich kaum vorstellbar.

Die Quantenfeldtheorie spricht also in Rätseln, wenn es um die Frage geht, was eigentlich hinter unseren Beobachtungen steckt. Sie beschreibt zwar das Verhalten von Quarks, Elektronen, Photonen und diversen Quantenfeldern, aber sie sagt nichts darüber aus, was ein Photon oder Quantenfeld wirklich ist. Deren Eigenschaften weichen erheblich von dem ab, was man sich im täglichen Leben unter Teilchen und Feldern gewöhnlich so vorzustellen pflegt.

Fazit

Materie besitzt auf jeden Fall weniger „Substanz“, als es unseren Sinnen erscheint. Auf die Dimensionen eines Wohnblocks vergrößert ist praktisch die ganze Masse eines Atoms in einem stecknadelkopfgroßen Kern (ein Billionstel des Atoms) im Zentrum konzentriert. Im Umkreis von hundert Metern schwirren Elektronen, deren Ausdehnung selbst in dieser Vergrößerung unsichtbar bleibt. Der Raum zwischen Kern und Elektronenhülle aber ist leer! Und weder in den Atomkernen noch in den Bausteinen hat man bisher etwas wirklich „Greifbares“ entdeckt. Wenn man sich die Frage stellt, welcher Prozentsatz des Raumes, den das Universum umfasst, denn von Materie besetzt ist, kommt man zu dem Schluss, dass die „echte“ Substanz des Universums praktisch keinen messbaren Raum einnimmt. Das materielle Substrat kann also nicht der Stoff sein, aus dem sich die sichtbaren Körper aufbauen.

Obwohl das materielle Substrat nicht das ist, was dauert, gibt es im Universum nicht nur ein Meer formloser Energie. Dass die Dinge um uns herum fest oder flüssig oder gasförmig erscheinen, dass man sie unter Druck setzen, erhitzen, verdünnen, umformen, anfassen kann, hat nicht etwa damit zu tun, dass der Raum, den diese Dinge einnehmen, tatsächlich „ausgefüllt“ ist. Es ist vielmehr so, dass die Nadelspitzen von Stoff, die das alles bewirken, miteinander nichts zu tun haben wollen. Es sind die Gesetze, die den Teilchen ihre Form verleihen. Das Pauli-Prinzip bewirkt, dass sich einzelne Atome nicht durchdringen können und Materie damit überhaupt einen nennenswerten Raum belegt und stabil ist. Es sorgt im Makrokosmos dafür, dass sich beispielsweise zwei „Materiestücke“, etwa ein Glas und ein Holztisch, nicht gegenseitig durchdringen und ein Stoß mit dem Kopf gegen die Wand für uns schmerzhaft ist.

Im 18. Jahrhundert stellte George Berkeley, ein irischer Bischof, eine kühne Behauptung auf: „Materie gibt es nicht wirklich!“ Er meinte, was wir als festen Stoff wahrnehmen, Holz etwa oder Eisen, ist nicht weiter als ein Eindruck, den Gott in unseren Köpfen erzeugt – eine Aussage, die damals sehr gewagt war. Und Max Planck sagte Anfang der 1920er Jahre: „Es gibt keine Materie, sondern ein Gewebe von Energien, dem durch intelligenten Geist Form gegeben wird.“ Der Begriff Materie könnte sich tatsächlich als idealistisch herausstellen – und damit mindestens als überflüssig, wenn nicht gar irreführend in fundamentalen Diskussionen. „Der Materialismus hat sich selbst überwunden.“ (Raimund Popper)

Es gibt keinen zwingenden Beweis dafür, dass die Physik – oder gar der Alltagsverstand – die Welt so oder ungefähr so beschreibt, wie sie ist. Beschreibt etwa die Wellenfunktion eine physikalische Realität oder ist sie schlicht ein mathematisches Hilfsmittel ohne Bezug zur Realität? Viele Physiker nehmen eine sogenannte instrumentelle Haltung ein und verneinen, dass physikalische Theorien die Welt widerspiegeln sollen. Für sie stellen Theorien bloß Instrumente dar, mit denen sich experimentelle Vorhersagen machen lassen. Die physikalische Realität sei, wie sie sei, und verhalte sich wie sie will – und wir lernten mühsam, unsere mathematischen Werkzeuge an ihr ungebärdiges Verhalten anzupassen. Die eigentliche Veranschaulichung der Materie hänge vom jeweiligen Wissensstand, von unserem Wissen und Unwissen, ab. Mit jeder Vervollkommnung des mathematischen und technischen Werkzeugs kämen aber auch immer neue Aspekte der Wirklichkeit hinzu.

Allmählich setzt sich in der Wissenschaft die Meinung durch, die Welt könne aus etwas ganz anderem als Teilchen, Wellen und Felder bestehen. Manche Wissenschaftstheoretiker betrachten die Natur als eine letztlich nur mathematisch fassbare Struktur, ohne irgendeinen Bezug auf Einzeldinge. Alles ließe sich vollständig auf Strukturen (Strukturenrealismus) oder Bündel von Eigenschaften reduzieren. Demzufolge werden wir niemals das wirkliche Wesen der Dinge erkennen, können aber wissen, wie sie miteinander in Beziehung stehen.

REM

Hund und Mensch

Ein einzigartiges Gespann seit vielen Jahrtausenden

Vom Wolf zum Hund

Menschen und Wölfe lebten vor etwa 40 000 Jahren in Eurasien nebeneinander und jagten oft die gleiche Beute. Besonders in Zeiten, in denen die Nahrung knapp war, kamen sich beide Arten vermutlich näher. Womöglich verfütterten Jäger und Sammler Fleischreste an die Wölfe, die sie selbst nicht mehr verzehrten. Nach Berechnungen finnischer Wissenschaftler um Maria Lahtinen waren die Menschen in den eisigen Zeiten mit Proteinen gut versorgt. Andererseits sind sie nicht vollkommen an eine karnivore Ernährung angepasst und können Proteine auch nicht gut verdauen. Daher konnten die Wildbeuter übrig gebliebenes Fleisch ohne Nachteil für sich selbst Wölfen in ihrer Nähe vorwerfen. Diese These ist auch geografisch plausibel, denn die frühesten Hinweise auf eine Annäherung von Mensch und Wolf stammen vornehmlich aus Regionen, in denen es damals extrem kalt war. Vielleicht war es also ein Wolf, der diese auf zwei Beinen laufenden Wesen attraktiv fand, weil sie oft Reste übrig ließen, die ihm die anstrengende Jagd ersparte.

Die amerikanischen Biologen Raymond und Lorna Coppinger stellten die These auf, nicht der Mensch habe den Hund domestiziert, sondern der Hund sich selbst. Dessen Vorfahren seien von ihrem Rudel verstoßene Wölfe gewesen, die sich um menschliche Siedlungen scharten und von den Abfällen ernährten – wie es verwilderte Hunde heute noch tun. „Das Verhalten der Menschen hatte dabei einen wesentlichen Einfluss darauf, welche Tiere in den Genuss ihrer Nähe kamen“, erklären die Forscher. Wer überleben wollte, musste freundlich sein , die Gepflogenheiten der Zweibeiner beachten und immer die Augen offen halten. So sei der Wolf zum Hund geworden.

Die Wölfe gewöhnten sich jedenfalls an die Zweibeiner und wurden zutraulich. Sie lebten nahe bei den Menschen und vermehrten sich untereinander weiter. Dies führte letztlich zu der Abhängigkeit vom Menschen – der Hund war entstanden. Es ist denkbar, dass zuerst von der Mutter verlassene, niedliche Wolfswelpen in die menschliche Gesellschaft aufgenommen und aufgezogen wurden. Eine Zähmung musste vor der dritten Woche geschehen, wozu Milch benötigt wurde. Die einzige Milchquelle war zu der Zeit der wahrscheinlichsten Domestikation der Wölfe – die Frau.

Die Gemeinschaft nutzte beiden Partnern. Zunächst teilten sich Mensch und Hund lediglich Schlafplatz und Nahrung miteinander. Zunehmend wurden die Tiere als Wächter gegen Raubtiere und Eindringlinge und als Begleiter und Helfer bei der Jagd genutzt. Sie mögen auch schon mal in Notzeiten als Lieferanten für Fleisch oder Bekleidungsmaterial gedient haben. Später wurden sie wohl auch als Lastenträger eingesetzt, beispielsweise, um Schlitten zu ziehen. Auf sog. Stangenschleifen (Travois) kann ein Hund Lasten bis zu 27 Kilogramm befördern.

Wann sich die Linien von Wolf und Hund genau spalteten, lässt sich schwer berechnen, denn immer wieder paarten sich Wölfinnen mit paarungswilligen Hunderüden. (Umgekehrt paarten sich Wolfsmänner selten mit Hündinnen, denn männliche Wölfe müssen mehrere Wochen mit einer läufigen Hündin verbringen, damit sie Testosteron ausschütten und sich überhaupt Spermien bilden. Hunde hingegen sind immer paarungsbereit.) So gab es im Lauf der Wolf-Hund-Geschichte einen konstanten Genaustausch, so dass keine der Linien ganz rein ist.

Seit Langem wird vermutet, dass Wölfe an mehreren Orten und zu unterschiedlichen Zeiten gezähmt wurden. Der amerikanische Zoologe Robert K. Wayne setzt den Beginn des besonderen Verhältnisses von Wolf und Mensch vor gut 40 000 Jahren an. Sicher ist, dass irgendwann zwischen 36 000 und 15 000 Jahren beide zum ersten Mal zusammen lebten. Die ältesten bekannten Hundeknochen stammen aus Belgien, wo in den Höhlen von Goyet mehrere Schädel gefunden. Einer davon, 36 000 Jahre alt, stach heraus, denn seine Anatomie glich weniger einem Wolf als 17 000 bis 13 000 Jahre alten Hunden aus Westrussland. Es konnte allerdings noch nicht geklärt werden, ob das Tier noch Wolf oder schon Hund war. Laut fossilen Funden haben sibirische Jäger auf jeden Fall bereits vor 33 000 Jahren Wölfe domestiziert. Der erste bekannte eindeutige Hund starb zu dieser Zeit in der Razboinichya-Höhle im Altai-Gebirge. Doch mit den heutigen Hunden ist auch er nicht verwandt. Er gehörte zu einem heute ausgestorbenen Seitenzweig, der laut Genanalysen ebenfalls aus einer ausgestorbenen Wolfsart hervorging.

Erbgutanalysen deuten darauf hin, dass die Trennung der chinesischen Hunde von Wölfen wohl vor 32 000 Jahren, wahrscheinlich „irgendwo in Asien“, stattfand. Molekulargenetische Vergleiche von Menschenknochen und Hundeknochen, die in Sibirien, Beringia und Nordamerika ans Licht kamen, ergaben, dass Hunde vermutlich vor 26 000 bis 19 700 Jahren in Sibirien domestiziert wurden. Damals, im letzten eiszeitlichen Maximum auf der Nordhalbkugel war es in Sibirien besonders kalt und unwirtlich. Unter diesen harschen Bedingungen waren Eiszweitwölfe und Menschen vermutlich noch enger zusammengerückt.

Weitere genetische Untersuchungen legen nahe, dass in Europa Hunde vor 32 000 bis 18 000 Jahren vom Wolf getrennte Wege gingen. Während des Maximums der letzten Eiszeit bevölkerten noch zwei Arten von Wölfen die Wälder Europas. Im kalten Norden lebten große, robuste Wölfe, die sich von Tieren ernährten, die an die Kälte angepasst waren. Im Süden dagegen streiften kleinere, schlankere Wölfe umher. Als dann mit der Erderwärmung viele an die Kälte angepasste Spezies ausstarben, verschwanden mit diesen Arten auch ihre Jäger wie der nordische Wolf. Seine südlichen Verwandten sind die Vorfahren der heutigen Wölfe. Der Hund dagegen ist genetisch eng mit dem ausgestorbenen nordischen Wolf verwandt.

Als vor spätestens 15 000 Jahren die ersten Menschen von Sibirien aus den amerikanischen Kontinent erreichten, brachten sie ihre Hunde mit. Darauf deutet das Erbgut der Hundefossilien in Nordamerika hin, das eine enge Verwandtschaft dieser Tiere mit den Hunden in der Arktis offenbart, deren Vorfahren vor 15 000 Jahren in Sibirien lebten. Die Hunde könnten bei der Wanderung nach Amerika als Lastenträger gedient haben. Mit nur 13 Kilogramm beladen sind Hunde in der Lage, bei kühlen Temperaturen bis zu 27 Kilometer zurückzulegen.

Von den ersten europäischen Hunden tragen heutige europäische Rassen nur noch wenige Spuren in sich. Die ältesten bekannten Überreste eines Hundes, der als direkter Vorfahre der heutigen Haustiere identifiziert wurde, stammen aus einem steinzeitlichen Grab am Fundplatz in Bonn-Oberkassel (Deutschland), wo vor rund 15 000 Jahren zwei Hunde neben zwei Menschen bestattet worden waren. Eines der Tiere war ein 27 bis 28 Wochen alter schwer kranker Welpe, der an Hundestaupe litt. Auf sich allein gestellt wäre er wohl schon nach dem ersten Schub gestorben. Jemand muss ihn liebevoll bis zu seinem Tod gepflegt haben.

Zwischen 14 000 und 6400 Jahren vor heute sollen Hunde mit Menschen aus Asien nach Europa gelangt sein und haben die Populationen aus dem Westen verdrängt. Vermutlich war es nur eine kleine Gruppe von Hunden, denn die genetische Vielfalt ihrer Rassen verringerte sich in dieser Zeit hier, während sie am östlichen Ende des eurasischen Kontinents (ihrer ursprünglichen Heimat) nach DNA-Analysen auch heute noch wesentlich größer ist.

Folgen der Domestikation

Infolge der Domestikation hat sich das Erbgut der Hunde über Jahrtausende erheblich verändert. Dabei setzten sich jene Gene durch, welche die Anpassung an menschliche Gemeinschaften begünstigen. Die Mentalität veränderte sich: Sie wurden ruhiger und abhängiger vom Menschen. Durch die Domestizierung trat auch eine Gestaltänderung ein, ein Phänomen, das sogar bei Füchsen auf Pelzfarmen beobachtet wurde. So treten bei nahezu allen Tierrassen durch Domestikation kürzere und breitere Schnauzen, kleinere Hirnschalen, Ringelschwänze, hängende Ohren und weiße Flecken im Fell auf.

Nach der Sesshaftwerdung des Homo sapiens setzten genetische Veränderungen Hunde in die Lage, stärkehaltiges Futter zu fressen und zu verdauen, so dass sie sich auch von den pflanzlichen Nahrungsresten und Abfällen der Bauern ernähren konnten. Hunde sind heute Allesfresser. Allerdings hatte das enge Zusammenleben für den Menschen auch den Nachteil, dass Krankheitsüberträger wie z. B. Flöhe von Hunden (oder anderen Haustieren) leicht auf ihre Besitzer überspringen konnten. Mit diesen Insekten breiteten sich Infektionen wie Fleckfieber, Gelbfieber, die Schlafkrankheit und wahrscheinlich auch die Pest rasch aus.

Der ungarische Verhaltensforscher und Hundeexperte Adam Miklosi ist davon überzeugt, dass der Hormonhaushalt, der sich infolge der Domestizierung veränderte, verantwortlich ist für die heutigen charakteristischen Eigenschaften der Hunde. Vermutlich spielen auch – wie beim Menschen – die Hormone Oxytocin und Vasopressin (für das Bindungsverhalten) und Serotonin (beruhigender Botenstoff) eine Rolle. Hunde betrachten den Menschen als sozialen Weggefährten. Ihre Vorfahren hatten vermutlich schnell gelernt, dass sie mit menschlichen Bezugspersonen kooperieren und ihnen vertrauen müssen, um erfolgreich zu sein. Diese Strategie bewährte sich, denn der Mensch löste fortan die meisten ihrer Probleme, sei es, wenn sie Hunger hatten, vor verschlossenen Türen standen oder Schutz benötigten.

Sozialkompetenz

Hunde lernen schnell, durch Beobachtung Dinge nachzuahmen und Probleme zu lösen. Andere imitieren zu können, verlangt die Fähigkeit, die Perspektive des anderen einzunehmen, eine geistige Leistung, die man lange nur von wenigen Tierarten, z. B. Menschenaffen und Raben, kannte. Sie gilt als erster Schritt zu erkennen, was andere wissen oder fühlen, und das eigene Verhalten danach auszurichten. Diese hochentwickelte Fähigkeiten ermöglicht es Hunden offenbar auch, sich die notwendigen Regeln anzueignen, um sich in eine Gruppe von Menschen problemlos einzufügen, wobei sie ihre Bedürfnisse, Erwartungen und Verhaltensweisen mit denen der Gemeinschaft in Einklang bringen und sich den charakteristischen Gewohnheiten ihrer Besitzer anpassen. Psychologen sprechen von einer sehr hoch entwickelten Sozialkompetenz. Im Laufe der Jahrtausende hat der Hund auf diese Weise ein Sozialverhalten entwickelt, das sich jenem von Herrchen und Frauchen immer mehr angeglichen hat.

Während andere höher entwickelte Tiere miteinander konkurrieren und sich in Machtkämpfe verzetteln, behalten Hunde – wie auch Menschen – das Wohl ihrer Gruppe im Auge – einer Gruppe, die nicht aus der eigenen Familie bestehen muss, ja nicht einmal aus der eigenen Spezies. Es verwundert daher auch nicht, dass Hunde unter den Haustieren die besten Zieheltern sind, die bisweilen sogar artfremde Tiere wie z. B. Katzen, Igel oder Kaninchen unter ihre Obhut nehmen. Die meisten anderen sozial lebenden Tiere kennen Gruppensolidarität nur, wenn es um Blutsverwandte geht. Im Gegensatz zum Wolf behält der Hund seinen Spieltrieb auch im Alter bei, bleibt neugierig, lernfähig und ohne Angst vor anderen Arten.

Für den Forscher Vilmos Csanyi aus Budapest ist der Hund „eben kein gewöhnliches Tier mehr, sondern ein künstliches Wesen„. Forscher vermuteten bislang, dass die Beziehung des Hundes zum Menschen als die eines Rudelmitglieds zum Leittier betrachtet werden müsse. Der Mensch habe sich an die Spitze der sozialen Rangordnung gesetzt und die Führung übernommen, der die Tiere folgen. Nach Csanyi betrachten die Hunde ihre Herrchen und Frauchen aber keineswegs als „ihr Rudel“. Auch die amerikanische Kognitionspsychologin Alexandra Horowitz schreibt in ihrem Buch „Was denkt der Hund?“, dass die Vierbeiner ihrem Halter gehorchten, läge keineswegs daran, dass sie ihn als Alphatier betrachteten, sondern vielmehr daran, dass er sie mit Futter versorge.

Mensch und Hund bildeten nach Csanyi vielmehr ein lockeres, freundschaftliches Bündnis. Der Vierbeiner könne sogar Befehlsstrukturen variieren und den Grad seines Gehorsams einer Aufgabe anpassen. Bei Blindenhunden trifft der Mensch etwa die Hälfte der Entscheidungen im Straßenverkehr, die andere der Hund. Nur Menschen und Hunde kennen diesen sanften Rollentausch. Die Abwechselung von Dominanz ist die Grundlage ihrer Kooperation.

Hunde sind äußerst aufmerksam und besitzen ein Gespür für die Kommunikationsformen und Emotionen der Menschen. Auf die Stimmungen seines Halters, auf die emotionalen Nuancen seiner Sprache und Rufe, reagiert ein Vierbeiner wie ein sensibler Seismograph. Die Tiere können unsere Gefühle aber nicht nur am Klang unserer Stimme, sondern auch an unserer Mimik und vor allem unserem Geruch erkennen und sich entsprechend verhalten. „Hunde riechen unsere Emotionen. Sie haben die außergewöhnliche Fähigkeit, den Hormoncocktail, den wir ausschütten, wahrzunehmen und zu deuten“, erklärt Horowitz. Sogar 11% aller Hunde von Epileptikern ahnen einen Anfall ihres Besitzers voraus; eine Begabung, die sich nicht andressieren lässt.

Dass Hunde oft mit ihrem Herrchen oder Frauchen mitgähnen, scheint ein weiterer Beweis für ihre große Empathiefähigkeit zu sein, die sich in den Jahrtausenden des Zusammenlebens entwickelt hat. Sie scheinen auch selbst zu sozialen Emotionen wie Mitleid, Verlegenheit, Scham, Neid, Dankbarkeit, Bewunderung, Entrüstung oder Verachtung fähig zu sein. Mancher Hund, der etwas Verbotenes getan hat, lässt deutliche Anzeichen von Verlegenheit erkennen. Andererseits nehmen Hunde es übel, wenn man sie ungerecht behandelt. Sie scheinen auch zu schmerzlichen Gefühlen befähigt zu sein, denn manche verweigern nach dem Tod ihrer Besitzer oft tagelang die Nahrung. Ob es sich dabei wirklich um Trauer handelt, ist allerdings kaum beweisbar.

Unklar bleibt daher weiterhin, ob Hunde wirklich das empfinden, was wir unter den betreffenden Gefühlen verstehen. Wie experimentelle Untersuchungen zeigten, scheint es bei komplexeren Emotionen große Unterschiede zwischen Mensch und Tier zu geben, z. B. beim Schuldgefühl. Manche Forscher vermuten hinter der Reaktion des Hundes eine Art Selbstschutz: Ein Hundebesitzer, der ein Vergehen seines Vierbeiners entdeckt, schimpft ihn eher nicht weiter aus, wenn dieser sich vermeintlich schuldbewusst verhält.

Möglicherweise reagieren Hunde also lediglich auf unsere Gefühle. Das menschliche Weinen ähnelt den Schmerz- und Angstlauten von Hunden (und auch von anderen Säugetieren). Schluchzende Laute lösen bei ihnen daher Unruhe aus – und kein Mitleid. Das bestätigten Studien der neuseeländischen Psychologen Min Hooi Yong und Ted Ruffman. Danach verursachen Babyschreie bei Hunden Stress, nachweisbar an steigenden Cortisolwerten im Blut. Wenn sich also ein Hund tröstend an sein unglückliches Frauchen oder Herrchen schmiegt, dann hat er wahrscheinlich kein Mitleid, sondern fühlt sich lediglich selbst gestresst.

In der gemeinsamen Evolution hat sich der Hund jedenfalls perfekt an seine ökologische Nische angepasst. Wie ähnlich sich Mensch und Hund im Laufe ihres schon viele Jahrtausende andauernden Zusammenlebens geworden sind, zeigen auch die überraschenden Erkenntnisse, dass manche Hunde wie Millionen Menschen an Krebs, Epilepsie, Allergien und Herzkrankheiten leiden und viele menschliche Verhaltensauffälligkeiten wie Zwangsneurosen, Panikstörungen und offenbar auch ADHS zeigen. Mindestens die Hälfte aller bei Hunden bekannten Erbkrankheiten gleichen denen von Menschen.

Kommunikation

Hunde können die sozialen und kommunikativen Signale des Menschen besser lesen und interpretieren als jedes andere Tier, vielleicht sogar besser als einige Menschen selbst. In der Wahrnehmungsgabe für menschliche Gestik ähneln Hunde kleinen Kindern. Schon neun Wochen alte Welpen sind in der Lage, aus der Körpersprache der Versuchsleiter Hinweise auf verstecktes Futter zu lesen. Sie folgen ihren Blicken und Gesten (z. B. ausgestreckter Finger!) sogar dann, wenn der Helfer nur als Filmprojektion oder auf dem Videomonitor sichtbar ist. Zwar achten auch Wölfe sehr gut aufeinander und auch auf den Menschen, aber weder sie noch Schimpansen haben im Deuten menschlicher Gesten und der Blickrichtung die Meisterschaft von Hunden erreicht. Vor allem den Blickkontakt zwischen Hund und Mensch halten die Forscher für den Schlüssel zu ihrer besonderen Beziehung. Anders als Kleinkinder, die ähnlich sensibel auf die Blickbewegungen ihres Gegenübers ansprechen, brauchen Hunde allerdings etwas länger, um ein gesuchtes Objekt wirklich zu fixieren. Die Frage, ob den Gemeinsamkeiten auch vergleichbare kognitive Prozesse zugrunde liegen, konnten die Wissenschaftler allerdings noch nicht endgültig beantworten.

Der Wolf kommuniziert noch mit rund 60 verschiedenen Gesichtsausdrücken, um seine Rudelgefährten über seinen Gefühlszustand zu informieren – notwendig für ein erfolgreiches Zusammenleben. Hunde haben aber selbst nur noch einen Bruchteil des Caniden-Repertoires an Gesichtsausdrücken zur Verfügung. Die Versuche, Rudel aus Pudeln und Retrievern zu bilden, scheiterten hauptsächlich an deren mimischer Sprachlosigkeit.

Hunde verstehen nicht nur, wie der Mensch mit ihnen spricht, sondern auch, was man zu ihnen sagt. Sie erfassen die Bedeutung einzelner Worte wie „Fass!“ oder „Sitz!“, auch wenn sie mit monotoner Stimme vorgetragen werden. Offenbar werden Tonfall und Inhalt im Gehirn der Tiere auf ähnlichen Ebenen wie beim Menschen verarbeitet. So wird der Inhalt von Wörtern, die für sie eine bestimmte Bedeutung haben (wie „Platz!“ oder „Brav“), in Arealen der linken Hirnhemisphäre verarbeitet. Ein lobender und ein neutraler Tonfall aktivieren in unterschiedlichem Maße Areale der rechten Hirnhälfte, und zwar egal bei welchem Wortinhalt. Hunde kombinieren beides, um sich auf das Gehörte einen Reim zu machen. Das Belohnungszentrum der Tiere spricht nur dann an, wenn ein lobender Tonfall und die richtigen Worte („Guuuter Junge!“) zusammenkommen. Dabei aktivieren verbales Lob und Zuwendung das Belohnungszentrum der Tiere sogar stärker als Leckerlis.

Nicht nur, dass das Gehirn der Tiere Wortinhalt und Intonation in verschiedenen Hemisphären wie der Mensch verarbeitet, es stimmt auch die Hierarchie der Sprachverarbeitung mit der im menschlichen Gehirn überein: Zunächst erkennen vor allem subkortikale Bereiche den Tonfall der Worte, für die Entschlüsselung des Inhalts sind dagegen eher nachgeschaltete Kortexareale zuständig. Das Sprachverstehen muss sich demnach also bereits früh im Lauf der Evolution der Säugetiere entwickelt haben und beruht vermutlich auf einem grundlegenden Arbeitsprinzip des Gehirns: Emotional aufgeladene Reize werden eher auf den unteren Verarbeitungsebenen erfasst, während komplexere Inhalte aufwändigere Arbeitsschritte im Gehirn erfordern.

Ein spontan formulierter Satz wie „Steh mal auf, wir gehen eine Runde um die Häuser“ lässt den Hund sofort die Ohren spitzen und aufgeregt auf und ab springen. Dabei reagieren Hunde natürlich nicht nur auf unsere Wörter. Menschen sind Gewohnheitstiere und verhalten sich meist gleich, wenn wir uns beispielsweise anziehen, um auszugehen. Hunde sind unglaublich gut darin, sich solche Ereignisketten zu merken, so dass es uns manchmal vorkommt, als wüssten sie bereits, was wir tun wollen, bevor es uns selbst klar ist. Ihre erstaunliche Abstraktionsgabe erstreckt sich nicht nur auf Wörter und Handlungsabläufe, sie können sogar mit Fotos etwas anfangen. Zeigte die Wissenschaftlerin Juliane Kaminski der Collie-Hündin „Betsy“ das Foto einer Frisbee-Scheibe, kam diese schnurstracks aus dem Nebenraum mit einem Frisbee zurück. Der Hündin ist damit etwas gelungen, womit selbst kleine Kinder Probleme haben können. Sie hat ohne Weiteres verstanden, dass ein Foto mehr sein kann als ein zweidimensionales Stückchen Papier: Es kann ein dreidimensionales Objekt repräsentieren und der Kommunikation dienen.

Vilmos Csanyi und sein Team ermittelten bei einer Umfrage unter Hundehaltern, dass ihre Tiere durchschnittlich 30 bis 40 Wörter der menschlichen Sprache verstehen. Selbst ein „normaler“ Hund kann sogar bis zu 165 Wörter lernen, behauptet der Psychologe Stanley Coren (University of British Columbia). Die Border-Collie-Hündin „Betsy“ beherrscht sogar 340 Wörter. Wissenschaftler in Leipzig stellten fest, dass der neunjährige Border-Collie „Rico“ die Namen von 250 Spielzeugteilen versteht und stets neue dazulernt. Er erkannte auch ein neues Stofftier in seiner Sammlung, obwohl er dessen Namen noch nicht vorher gehört hatte. Offenbar begriff er, dass der unbekannte Ausdruck für das fremde Plüschtier gemeint sein musste: Neues Wort – neues Ding! Dieser logische Schluss setzt eine beachtliche Denkleistung voraus. „Rico“ konnte sich auch nach Wochen noch an das neue Wort erinnern.

Die sechsjährige „Chaser“, eine weitere Border-Collie-Hündin, kennt sogar die Namen von 1022 verschiedenen Stofftieren, ein Wortschatz, der in etwa dem eines dreijährigen Kindes entspricht. Außerdem brachten die Wissenschaftler der cleveren Hündin bei, die bekannten Objekte in verschiedene Kategorien (nach übereinstimmenden Formen oder Funktionen, z. B. Bälle oder Frisbees) einzuordnen und sie auf Zuruf mit der Schnauze oder der Pfote zu berühren. Die Hündin konnte außerdem Bezeichnungen von Orten, Personen und Aktivitäten sinnvoll mit dem Namen der Gegenstände verbinden.

Das Gekläff der Hunde, glaubt Vilmos Csanyi, sei nichts anderes als der Versuch, menschliche Worte zu imitieren. „Ihr soziales Verständnis ist so komplex“, meint er, „dass es ihnen leicht fallen müsste, eine einfache Sprache zu erwerben.“ Die Vokalisation des Hundes sei so variabel, dass sie die Grundlage für ein sprachähnliches System werden können.

Der ungarische Hundeforscher Peter Pongracz glaubt sogar, dass Hunde nicht nur Aspekte der menschlichen Sprache verstehen, sondern schon eine eigene Sprache entwickelt haben, um sich mit dem Menschen zu verständigen. Schließlich bellen nur Haushunde regelmäßig, Wölfe und ausgewachsene Wölfe dagegen äußerst selten. Das Bellen, Kläffen und Knurren scheint spezifische Informationen zu enthalten, die von Menschen ohne Probleme entschlüsselt werden können. „Selbst sechsjährige Kinder und Menschen, die noch nie einen Hund hatten, können diese Muster verstehen“, so Pongracz. „Sie wissen sofort, ob mit dem Bellen Angst, Glück oder Aggression ausgedrückt werden soll.“ Mittlerweile hat die kalifornische Wissenschaftlerin Sophia Yin Spektrogramme von über 4600 hündischen Lautäußerungen analysiert, die sie mit 80-prozentiger Trefferquote bestimmten Situationen zuordnen konnte: Das hohe vereinzelte Bellen etwa, wenn Herrchen außer Sicht ist; oder das harsche, tiefe Bellen, wenn es an der Türe klingelt.

Das Gespann

Wölfe gelten als intelligenter, vorsichtiger und entschlossener als Hunde. In Standardintelligenztests – in Experimenten beispielsweise, in denen Logik gefragt ist – schneiden vor allem Haushunde schlechter ab als Wölfe oder Hunde, die im Garten oder Hof gehalten werden. Das heißt nicht, dass sie sich in bestimmten Situationen clever verhalten können. So sind sie in der Lage, nicht nur zielstrebig die kommunikativen Aspekte unseres Verhaltens herauszufiltern, sondern auch sie zu ihrem Vorteil zu nutzen. Mit der Gewieftheit eines Kindes täuschen sie bestimmte Verhaltensweisen vor, um eine gewünschte Reaktion bei ihrem Besitzer auszulösen. Sie können anhand eines Hinweises auf dem Anrufbeantworter ein Futterversteck finden – und wissen zugleich doch, dass Herrchen per Telefon zwar zu hören ist, sie aber nicht sehen kann. Auf einen Befehl wie „Sitz!“ oder „Platz!“ reagieren sie nämlich nicht. Bei Experimenten schnappten sie nach einem verbotenen Stück Fleisch, wenn der Versuchsleiter wegschaute oder nur die Augen schloss. Für Schimpansen zählte in einer solchen Situation einzig die Anwesenheit des Experimentators und ob sie sein Gesicht sehen konnten, nicht aber sein Blick.

Ohne Mitwirkung der Hunde ist für den britischen Genetiker Brian Sykes die menschliche Kulturgeschichte nicht vorstellbar. Mensch und Hund sind heute echte Partner, Freunde und Helfer des Menschen. Die Vierbeiner sind Spielpartner für die Kinder und verbessern ihre soziale Kompetenz. Für Senioren sind sie eine Bereicherung für den Lebensabend, sie leisten Gesellschaft und sorgen für mehr Aktivität. Mit ihrem ausgezeichneten Geruchssinn und Gehör sind sie Helfer in allen Lebenslagen, vor allem ideal für Polizei und Rettungsdienste. So haben sich Mensch und Hund in einer einzigartiges Gemeinschaft zweier verschiedener Arten zu beiderseitigem Nutzen zusammengefunden.

REM