Hervorgehoben

Unser Mesokosmos

Unser Gehirn hat nur einen indirekten Zugang zur Welt. Von dem, was „da draußen“ (in der Außenwelt) vorgeht, bekommt es nur etwas mit, wenn es entsprechende Signale erhält, die von unseren Sinnesorganen aufgenommen werden können. Diese sind unsere „Fenster zur Außenwelt“, durch die das Gehirn mit Informationen über unsere Umwelt versorgt wird.

Die Leistungen unserer Sinnesorgane sind das Resultat der Evolution. Sie haben sich in unserer Stammesgeschichte in Anpassung an unsere unmittelbare Umwelt zum Zwecke der Orientierung entwickelt. Ihre Strukturen passen heute auf die Strukturen der Wirklichkeit um uns herum aus demselben Grund, aus dem die Flügel eines Vogels zur Luft oder der Fuß eines Kamels auf den Wüstensand passt. In einer Welt, in der es beispielsweise gar keine elektromagnetische Strahlung im sichtbaren Licht gäbe, hätten sich auch dafür keine Augen entwickelt. Wozu hätten sie dienen sollen? Die Evolution steckt aber keine Energie in nicht unbedingt nötige Strukturen.

Auch die Reichweite unserer körperlichen Sinne ist auf das unbedingt notwendige Maß beschränkt, ihr Empfindungsbereich ist eng begrenzt. Unsere Sinne erfassen vor allem nur jenen Teil der Realität, der für die Orientierung und das Überleben in der Umwelt unserer stammesgeschichtlichen Vorfahren besonders wichtig war. Andere Dinge fallen in unserer Wahrnehmung aus der für uns objektiven Wirklichkeit normalerweise heraus.

Daher ist unsere Wahrnehmung günstigenfalls nichts anderes als ein abstrahiertes Abbild der Umwelt. Die Evolutionäre Erkenntnistheorie bezeichnet jenen Ausschnitt der Welt, den unser Organismus ohne künstliche Hilfsmittel erkennend, also rekonstruierend und identifizierend bewältigt, als kognitive Nische oder Mesokosmos. Diese mesokosmischen Strukturen sind demnach solche, die wir als anschaulich bezeichnen.

Der Mesokosmos des Menschen entspricht einer Welt der mittleren Dimensionen. Er reicht von Millimetern bis zu Kilometern, vom subjektiven Zeitquant (eine sechzehntel Sekunde) bis zu Jahren, von Gramm bis Tonnen, von Stillstand bis etwa Sprintgeschwindigkeit, von gleichförmiger Bewegung bis zu Erd- und Sprintbeschleunigung, vom Gefrierpunkt bis zum Siedepunkt des Wassers, usw. Er schließt Licht ein, Röntgen- oder Radiostrahlung dagegen aus. Elektrische und magnetische Felder gehören nicht zu der kognitiven Nische des Menschen (allerdings mancher Tiere). Im Hinblick auf Komplexität reicht der Mesokosmos von Komplexität null (isolierte Systeme; gleichförmige Zusammensetzung) bis zu bescheidener Komplexität (lineare Zusammenhänge).

Aus dem breiten Spektrum elektromagnetischer Wellen, das von Gammastrahlung auf der kurzwelligen Seite bis zu Infrarotstrahlen auf der langwelligen Seite reicht, kann unser Auge nur einen verschwindend kleinen Ausschnitt verarbeiten: Wellenlängen zwischen 380 und 760 Nanometern (1 nm = ein Milliardstel Millimeter). Von den mechanischen Schwingungen in Gasen (z. B. Luft), Flüssigkeiten (z. B. Wasser) oder festen Körpern (z. B. Knochen) kann unser Ohr nur Frequenzen zwischen 16 und 20 000 Hertz (Schwingungen pro Sekunde) registrieren, die wir dann als Töne oder Geräusche hören.

Die reale Welt umfasst also weit mehr Strukturen, als wir mesokosmisch bewältigen – einfach ausgedrückt, vor allem die besonders kleinen (Mikrowelt), die besonders großen (Makrowelt) und die besonders komplizierten (komplexen) Systeme. Diese sind für uns nicht unmittelbar zugänglich. Sie wahrzunehmen hätte für unsere Vorfahren einfach auch keinerlei Selektionsvorteile gebracht.

Erschließung der Welt

Im Laufe der Evolution aber hat sich die Fähigkeit zur Erschließung der nicht sinnlich erfahrbaren Welt offenbar als nützlich erwiesen. Die Erkenntnisstrukturen des Gehirns befähigten den Menschen, den eigenen Körper, Raum und Zeit zu überwinden.

Schon die Herstellung eines zweckmäßigen Steinwerkzeugs ist ohne eine Ahnung des künftigen Gebrauchs kaum denkbar. Als die Menschen es im Laufe der Evolution verstanden, ihr Wissen systematisch weiterzugeben und auszutauschen, konnten sie ihr technologisches Know-how hochtreiben. So verfügten sie bald über eine Reihe von Technologien, mit deren Hilfe sie nicht nur die für sie nutzbare Umwelt erweiterten, sondern auch ihre körperlichen Grenzen sozusagen verschoben: Fertigkeiten von der Werkzeugherstellung über das Kochen bis zum Bau von Behausungen.

Zu einem wichtigen Hilfsmittel zur Erschließung der Welt wurde die menschliche Sprache. Mit ihrer Hilfe können wir Erwartungen und Vermutungen aussprechen, Fragen und Zweifel äußern. Sie erlaubt uns, Sachverhalte zu entwerfen und Dinge zu beschreiben, die wir uns nicht mehr anschaulich vorstellen können (z. B. vierdimensionale Welten oder nicht-kausale Ereignisfolgen), sogar solche, die überhaupt nicht existieren können (wie z. B. „fliegende Teppiche“). Und mit ihr sind wir in der Lage, abstrakte Zusammenhänge zu erkennen.

Der Mensch strebte nach zuverlässigem Wissen über die Natur und die Welt, unabhängig von Phantasie und Spekulation. Dazu entwickelte er die Wissenschaft. Dabei war sein ursprüngliches Ziel, die göttlichen Prinzipien in der Welt zu entdecken. Er begann, seine Umwelt systematisch zu beobachten. Aus einer oder mehreren Einzelbeobachtungen schloss er auf das Allgemeine: Die Sonne geht auf und die Sonne geht unter, also wird die Sonne auch in Zukunft auf- und untergehen – ein Induktionsschluss. Später tritt zur Induktion, also der Erkenntnisgewinnung durch Beobachtung, das Experiment: Lernen durch Versuch und Irrtum. Die Wissenschaft akzeptierte nur noch das, was durch Experiment oder Beobachtung, also empirisch, überprüft war.

Nach der „Kopernikanischen Wende“ stimmte das, was die Wissenschaft erkannt hatte, zum ersten Mal nicht mehr mit dem Augenschein überein. Als Geburt der modernen Wissenschaft in Europa gilt der Beginn des 17. Jahrhunderts. Zu ihren Gründungsvätern gehörte der Italiener Galileo Galilei. Seither sind die Wissenschaftler bei der Erforschung der Wirklichkeit immer mehr auf Abstand zum sinnlichen Erleben gegangen und konzentrierten sich auf das technisch messbare.

Überwindung des Mesokosmos

Eine unverzichtbare Brücke zwischen den experimentellen Messungen und Beobachtungen auf der einen Seite und dem Auffinden von Naturgesetzen und Grundprinzipien auf der anderen ist eine Theorie. Sie ist dann eine gute Theorie, wenn sie zu einem Modell führt, das sich an nachprüfbaren Fakten orientiert und eine Fülle von Beobachtungen widerspruchsfrei beschreiben kann. Außerdem muss es imstande sein, die Ergebnisse zukünftiger Beobachtungen vorherzusagen. Wenn die Voraussage sich bestätigt, ist das ein Test für den Wirklichkeitsgehalt des Modells.

Die Ebene der Modelle ist der Bereich, der heute die wissenschaftliche und technische Innovation immer schneller – und immer weniger kontrollierbar – vorantreibt. Modelle sind aber immer Vereinfachungen. Sie sollen die größte Vielfalt an komplexen Phänomenen mit der einfachsten Menge an Konzepten erfassen, die für das menschliche Gehirn verständlich sind. Ob sie die Realität treffen, ist eine abstrakte Frage.

Über Gedankenexperimente müssen sich die Wissenschaftler oft erst mal einen Weg bahnen, wie etwas ungefähr vorstellbar ist. Selbst wenn Versuche im Geist oft mehrere Interpretationen zulassen, werfen sie ein neues Licht auf althergebrachte Ansichten und erzeugen fruchtbare Diskussionen. Mit dieser Methode lassen sich gedanklich auch Annahmen überprüfen, die experimentell nicht erforscht werden können, und Theorien hinterfragen.

Die menschliche Sprache taugt für die physikalische Wirklichkeit nur begrenzt. Sie hat sich an den Gegenständen unserer alltäglichen Erfahrung entwickelt und hält, beispielsweise für die Befunde der subatomaren Realität, keine Begriffe mehr bereit. Auf der Wirklichkeitsebene des Atoms lassen sich die Befunde und Entdeckungen endgültig nur noch in der Sprache der Mathematik ausdrücken.

Bedeutung der Mathematik

Die Mathematik erwies sich als ein wirkungsvolles Instrument, um die Umwelt, die Natur, besser verstehen und beschreiben zu können. Sie gehörte von Anfang an zur menschlichen Kultur. Die Basis aller Mathematik ist der angeborene Zahlensinn: Mengen von bis zu vier Gegenständen werden auf einen Blick erfasst. Größere Mengen können wir zunächst nur näherungsweise schätzen. Dieser angeborene Schätzsinn erlaubt keine Genauigkeit, war aber wohl in der Evolution von Nutzen. Wahrscheinlich schaffte die Fähigkeit, Mengen zu erfassen, Vorteile im Überlebenskampf.

Stanislas Dehaene nimmt an, dass unser angeborener Zahlensinn logarithmisch funktioniert – wie auch unser Gehör, das Lautstärken nach logarithmischen Dezibel wahrnimmt. Die Zahlenreihe sei erst durch kulturelle Einflüsse zur Gerade gestreckt worden. Darauf deutet hin, dass z. B. einzelne archaisch lebende Völker, wie die Mundurucu- Indianer vom Amazonas, Zahlen nicht linear, sondern logarithmisch ordnen – wie das auch europäische Kindergartenkinder tun.

Auf dem evolutionär alten Schätzsystem basiert unser exaktes Rechenvermögen, wozu aber erst die Fähigkeit, Symbole zu schaffen, beitrug. Auf den Zahlsymbolen, die noch vor den Schriftzeichen erfunden wurden, baut das Denksystem der Mathematik auf.

Die Wissenschaftler benutzen die Mathematik als Formelsprache in ihren Modell-vorstellungen. Weil unser Anschauungsvermögen nur mesokosmischen Strukturen gerecht wird, ist eine Naturwissenschaft, die sich nicht mit Beschreibungen zufrieden gibt, sondern Erklärungen sucht, auf die Verwendung mathematischer (und damit oft unanschaulicher) Strukturen unabdingbar angewiesen. Eine Theorie muss daher in aller Regel zunächst in mathematischen Gleichungen ausgedrückt werden, erst dann ist sie durch Beobachtungen überprüfbar.

Mathematik kann die verschiedensten Dinge und Ereignisse in der Realität modellieren, d. h. durch Gleichungen beschreiben. Sie liefert aber keine direkte Erkenntnis über die Welt, sondern stellt in vielfältige Weise nur Strukturen zur Verfügung, die wir auf ihre Anwendbarkeit bei der Beschreibung der Natur prüfen können. Ihre Gleichungen formulieren exakt oder sogar quantitativ, was wir uns vage und qualitativ immer schon vorgestellt haben, erfassen aber auch Strukturen, die uns anders überhaupt nicht zugänglich sind, darunter auch sehr komplizierte und komplexe Systeme.

So vermögen wir mit Hilfe der Mathematik zu einer tieferen Ebene des Verständnisses der Welt vorzudringen und zu weiterführenden Schlussfolgerungen über sie zu gelangen. Auf Grund seiner mathematischen und technologischen Fähigkeiten schuf der Mensch technische Hilfsmittel, mit denen es ihm gelang, die Grenzen des Mesokosmos zu überwinden. Zunächst waren das Teleskope und Mikroskope. Er schuf Ultraschallgeräte und Tomographen, er erzeugte Laser und entwarf unter Zuhilfenahme eines Rechners komplizierte logische Konstruktionen. Bald wird der erste Quantencomputer anwendungsbereit sein. Die Vielfalt der Anwendungen, der Inspirationen und der Methoden ist unermesslich.

Die mathematischen Strukturen wie Zahlen, Vektoren, Gleichungen und geometrische Objekte beschreiben die Welt erstaunlich wahrheitsgetreu. Über den Zusammenhang zwischen Mathematik und Natur gibt es zwei diametral entgegengesetzte Meinungen, die bis auf die antiken Philosophen Platon und Aristoteles zurückgehen. Nach Aristoteles ist die physikalische Realität grundlegend und die mathematische Sprache nur eine nützliche Annäherung. Platon zufolge ist die mathematische Struktur das eigentlich Reale, das von Betrachtern nur unvollkommen wahrgenommen wird. Kinder, die noch nie von Mathematik gehärt haben, sind spontane Aristoteliker. Die platonische Sicht wird erst allmählich erworben.

Theoretische Physiker neigen heute mehrheitlich zum Platonismus. Sie vermuten, dass die Mathematik das Universum so gut beschreibt, weil es an sich mathematisch ist. Schon Galilei schrieb: „Das Buch der Natur ist in der Sprache der Mathematik geschrieben.“ Algebraische und geometrische Systeme sind nicht nur nützliche Instrumente und Erfindungen, sie existieren auch außerhalb von Raum und Zeit, meinen heute die meisten Wissenschaftler. Mathematische Strukturen werden demnach nicht erfunden, sondern entdeckt. Sie sind im ganzen Universum wahr.

Die Welt um uns herum lässt sich mit den seltsamen Symbolen und Zeichen der Mathematik beschreiben und erklären. „Verstehen“ können wir sie trotzdem nicht, denn das, was die Formeln ausdrücken, entzieht sich unserer Vorstellungskraft – es liegt außerhalb unseres Mesokosmos. Viele der tiefgründigsten Errungenschaften des 20. Jahrhunderts – Relativitätstheorie, Quantenmechanik, Kurt Gödels Unvollständigkeitssatz, Chaos-Theorie – ziehen dem begreifenden Geist bestimmte Schranken. Quantenfelder, Strings, Wurmlöcher, Urknall oder die Topologie des Universums lassen sich nur über den schmalen Grat der höheren Mathematik erreichen.

Die Physik muss zusätzlich zu den mathematischen Beschreibungen die Wirklichkeit erklären: mit theoretischen Modellen. Sie haben aber keinen absoluten Wahrheitsanspruch. Sie müssen immer wieder kritisch hinterfragt werden und im Licht neuer Indizien und Entdeckungen gegebenfalls modifiziert oder sogar ersetzt werden. Daher nähern sich unsere Theorien und Vorstellungen der Wirklichkeit nur an und sind lediglich begrenzt gültig. Man weiß keineswegs, ob der Raum wirklich gekrümmt ist, wie das die Allgemeine Relativitätstheorie behauptet. Aber bis heute ist keine physikalische Sicht der Welt bekannt, die überzeugender wäre als diejenige, sich den Raum „gekrümmt“ vorzustellen.

Das Realismusproblem ist ein Dauerthema der Philosophie und Wissenschaftstheorie. „Wir können nicht fragen, was die Wirklichkeit ist, denn wir haben keine modellunabhängigen Überprüfungen von dem, was real ist“, schrieb Stephen Hawking. „Ich stimme nicht mit Platon überein, nach dem die Naturgesetze unabhängig von uns existieren.“

Der theoretische Elementarteilchenphysiker Henning Genz setzt der These, dass das Universum mathematisch und Gott ein Mathematiker sei, die These entgegen, dass im Universum Prinzipien regieren, die ohne Mathematik formuliert und verstanden werden können. „Man kann geradezu sagen, dass fundamentale Fortschritte der Physik mit der Ablösung mathematischer Prinzipien durch nichtmathematische einhergehen.“ (Henning Genz: „Gedankenexperimente“; S.177) Die Mathematik sei praktisch gezwungen, ihre selbst auferlegten Grenzen zu verlassen, um zu immer komplexeren und reicheren Systemen vorzustoßen.

Es führt kein Weg daran vorbei, dass wir die reale Welt von ihrer mathematischen Beschreibung unterscheiden müssen. Daher werden wir sie nie mit vollkommener Genauigkeit erfassen, also nie endgültig erklären können. „Dort reicht das Auge nicht hin, die Sprache nicht, nicht der Geist.“ (Upanischaden)

REM

Seltsamkeiten der Quantenmechanik

Unbestimmtheit – Verschränkung

Die Quantenmechanik entstand durch neue Erfahrungen und Beobachtungen, die im Rahmen der alten Theorie nicht mehr verständlich gemacht werden konnten. Ihre grundlegenden Gesetze wurden 1925 durch Werner Heisenberg, Max Born und Pascual Jordan formuliert. Dies führte zur Entwicklung der Quantenphysik, dem heutigen Kernstück der modernen Physik.

Vor allem zum Zeitpunkt der Veröffentlichung der Quantenmechanik wirkten viele ihrer Vorhersagen für Laien wie auch für manche Physiker – darunter so herausragende wie Albert Einstein – absurd und unglaublich. Die Theorie widerspricht vollständig dem gesunden Menschenverstand und ist intuitivem Verständnis nicht zugänglich – genauer gesagt: unsere Intuition wurde so geformt, dass sie quantenmechanisches Verhalten nicht begreift. Unser Verstand und unsere Sprache, mit denen wir z. B. auch Philosophie treiben, haben sich nicht im täglichen Umgang mit einzelnen Atomen, Elementarteilchen und Strahlungsquanten entwickelt, sondern aus der Alltagserfahrung mit makroskopischen Objekten.

Im Prinzip gehorcht jeder Gegenstand – ob Atom, Sandkorn oder Ball – den Gesetzen der Quantenmechanik. Doch je größer ein Objekt ist, desto mehr Atome und Moleküle enthält es und desto schneller gehen im Zusammenspiel der vielen Teilchen deren Quanteneigenschaften verloren. So bleiben die bizarren Eigenschaften der Quantenmechanik meist hinter der Fassade der klassischen Physik verborgen. Wir verwechseln diese Fassade mit der Wirklichkeit selbst, und daher rühren unsere alltäglichen Vorstellungen, wie die Welt funktioniert: Für uns hat jedes Objekt seine wohldefinierte Position, Bewegung und Identität – und sein Verhalten ist durch deterministische Gesetze exakt festgelegt. Ein Ding ist, wie es ist, unabhängig davon, ob und wie wir es beobachten und messen.

In der Quantenmechanik fehlen die definitiven Eigenschaften. (Dass etwas definitiv ist, bedeutet, dass es keine Zweideutigkeiten gibt.) Während in der klassischen Physik ein Teilchen jederzeit eine eindeutige Position und Geschwindigkeit innehat, lassen sich diese Größen in der Quantenmechanik vor einer Messung nicht objektiv bestimmen. Quantensysteme existieren als Superpositionen mehrerer möglicher Zustände, und erst der Messvorgang (eine experimentelle Beobachtung) entscheidet, welcher Zustand wirklich eintritt. Damit unterscheidet sich die Quantenmechanik drastisch von allen anderen physikalischen Theorien.

Plötzlich ist eine Elektron nicht mehr bloß ein punktförmiges Teilchen, sondern besitzt in manchen Situationen Eigenschaften, die eigentlich lediglich Wellen innehaben. Für ein einzelnes Elektron hat die Wellenfunktion (Schrödinger-Gleichung) an jeder Stelle im Raum einen Zahlenwert. Möchte man z. B. ermitteln, wie die Chancen stehen, ein Elektron an einem bestimmten Ort zu finden, muss man das Quadrat der Wellenfunktion dieser Position auswerten.

Die Quantenmechanik ist erstmal eine mathematische Sache. Ihre Grundprinzipien sind für Mathematiker auf einer halben Seite darzustellen. Es war und ist schwierig, die beobachteten und formulierten Phänomene der Quantenmechanik mit den Mitteln einer philosophisch angereicherten Umgangssprache in Worte zu fassen. Wenn man aber Modelle aus der Makrowelt zur Beschreibung der Mikrowelt heranzieht, darf man sich nicht über Widersprüche wundern. So sind viele der Verständnisprobleme bis heute noch ungelöst oder teils heftig umstritten.

Unschärfe

Die Heisenbergsche Unschärferelation ist neben dem Pauli-Verbot* das zweite Schlüsselprinzip der Quantenmechanik, das in den zwanziger Jahren formuliert wurde. Es gilt für alle Schwingungs- und Wellenphänomene. Die entsprechenden mathematischen Gleichungen legen den Unterschied zwischen der Quantenwelt des Mikrokosmos und der Erfahrungswelt des Makrokosmos am schärfsten klar und markieren die Grenzen der menschlichen Vorstellungskraft in der atomaren Welt.

*Das Pauli-Verbot besagt, dass keine zwei identische Fermionen – z. B. Elektronen – denselben Quantenzustand einnehmen können.

Jedes Mal, wenn man klassische Begriffe – Teilchen, Welle, Position, Geschwindigkeit – zur Beschreibung von Quantenobjekten benutzt, kommt man auf ein Paar von Begriffen oder Aspekten bzw. Eigenschaften, die in Wechselbeziehung zueinander stehen und nicht gleichzeitig präzise beschrieben werden können. Je mehr wir die eine physikalische Größe in unserer Beschreibung hervorheben, desto unschärfer wird die andere.

In der klassischen Physik wäre es zulässig gewesen, gleichzeitig z. B. physikalische Größen wie Ort und Impuls (Produkt aus Masse und Geschwindigkeit) eines bestimmten Teilchens mit beliebiger Genauigkeit zu bestimmen. Nach der Unschärferelation lassen sich z. B. Ort und Impuls eines Teilchens niemals zusammen genau messen. Sie können stets nur innerhalb gewisser Unschärfen angegeben werden, die durch die Unschärfe-Relation festgelegt sind.

Eine im Prinzip genaue Messung einer physikalischen Größe (wie Ort oder Impuls) lässt sich nur auf Kosten der anderen bewerkstelligen. Kennen wir exakt den Ort eines Teilchens wie dem Elektron, wissen wir nichts über seine Geschwindigkeit und seinen Impuls. Wir haben es ja sozusagen „gefangen“ (z. B. auf einer Fotoplatte). Berechnet man den Impuls genau, wird der augenblickliche Ort ungenau. Erscheint uns z. B. ein Elektron als reine Welle, kennen wir genau seine Geschwindigkeit, denn die ergibt sich aus der Wellenlänge, die wir gut messen können. Doch die Welle ist im Raum verteilt, ihr Ort folglich völlig unbestimmt. In der Realität nimmt das Elektron eine Zwischenstellung zwischen Teilchen- und Wellencharakter ein, so dass wir Ort und Geschwindigkeit nur teilweise kennen, aber nie genauer, als es die Unschärferelation zulässt.

Das Produkt aus den Unschärfen über den Ort des Teilchens und über seinen Impuls kann einen bestimmten Wert (Minimalwert) nie unterschreiten. Er ist durch eine Fundamentalkonstante, das Planck’sche Wirkungsquantum, gegeben. Wenn man beispielsweise die Ungenauigkeit der Position auf ein Milliardstel Millimeter genau misst, kann man die Geschwindigkeit auch nur mit einer Genauigkeit von 1 zu 1024 m/s bestimmen.

Atomgröße

Es ist die Unschärfebeziehung zwischen Ort und Impuls – genauer: die Unschärfe des Elektronenorts -, die die Größe der Atome fixiert. So ist die Ortsunschärfe beispielsweise des Elektrons im Wasserstoff-Atom so groß wie der Durchmesser seiner Atomhülle: ungefähr das Hundertmillionstel eines Zentimeters (10-8 cm). Dabei hängt die Größe der Atomhülle auch direkt von der Masse des Elektrons (91094 x 10-28 g) ab, da Heisenbergs Unbestimmtheitsrelation nicht nur die Geschwindigkeit betrifft, sondern den Impuls (also das Produkt aus Masse und Geschwindigkeit).

Angenommen, das Wasserstoff-Atom wäre hundertmal kleiner. Dann wäre das Elektron viel genauer lokalisiert als im normalen Wasserstoff-Atom, doch seine Geschwindigkeit hätte eine 100-mal größere Unschärfe und es würde sich im Durchschnitt schneller bewegen als im normalen Atom. Mithin würde das kleinere Atom auch eine größere Energie besitzen. Weil in der Natur jedoch ein Minimalprinzip realisiert ist, tendiert jedes System dazu, den geringstmöglichen Energiezustand einzunehmen (ein wichtiges Prinzip in der Natur). Das kleine Atom wäre deshalb nicht stabil, sondern würde rasch Energie abstrahlen und sich somit ausdehnen, bis es die Größe des normalen Atoms angenommen hätte.

Analog können wir ein künstliches Atom betrachten, das 100mal größer als ein normales Atom wäre. Um es herzustellen, müssten wir das Elektron vom Kern wegziehen. Dazu wäre ein gewisser Energieaufwand nötig. Wiederum wäre also die Energie des neuen Atoms größer als die des normalen Atoms. Auch das größere Atom würde nach kurzer Zeit in den Normalzustand übergehen, der von allen Zuständen die geringste Energie aufweist.

Auch die Größe der Atomkerne wird fast ausschließlich vom Planck’schen Wirkungsquantum und der Unschärfe-Relation bestimmt. Eine Art „Unschärfe-Druck“ verhindert, dass Kernteilchen weiter komprimiert werden. Als Mindestgröße ergibt die Rechnung die sogenannte Compton-Wellenlänge. Nach dieser Rechnung sollen Proton und Neutron 10-15 Meter groß sein, genau die Größe, die sie wirklich besitzen.

Die Unbestimmtheitsrelation ist also der Grund für die Stabilität in der Natur und erklärt, wie groß die Atome sind und warum alle desselben Typs das gleiche Ausmaß haben.

Tunneln

Weil es auch die Unschärfebeziehung von Energie und Zeit gibt, ist z. B. die Energie von Atomen und Elementarteilchen innerhalb gewisser Zeiträume unbestimmt. Aus diesem Grund kann ein Atomteilchen kurzfristig mehr Energie haben als die klassische Physik „erlaubt“; man sagt: Es kann sich kurzfristig Energie „borgen„. Dies ermöglicht ihm, eine Energiehürde (eine Potenzialbarriere) zu überspringen, eine Barriere, die in der klassischen Physik undurchdringlich ist. Wir sprechen von einem Quantentunneleffekt. (Ein Golfball, der in einem Gefäß auf und ab springt, kann nicht tunneln, d. h. plötzlich außerhalb des Gefäßes auftauchen. Ein Quant würde mit einer genau berechenbaren Wahrscheinlichkeit draußen sein.)

Im Bereich der Atome findet dieser unglaubliche Vorgang des Tunnelns tatsächlich häufig statt. Er ist die Grundlage der Radioaktivität. Beim radioaktiven Zerfall emittieren Atome beispielsweise Alpha- oder Beta-Strahlung, d. h. Heliumkerne oder Elektronen. Gemäß der klassischen Physik könnte sich kein Teil eines Atoms – etwa ein Heliumkern – einfach selbständig machen. Obwohl die Radioaktivität einem Zerfallsgesetz gehorcht, die die statistische Lebensdauer einer Menge von radioaktiven Atomen derselben Sorte beschreibt („Halbwertzeit„), scheint der Zeitpunkt des Zerfalls eines einzelnen Atoms selbst Zufall zu sein.

Der umgekehrte Vorgang von radioaktivem Zerfall, das Verschmelzen von zwei Atomkernen, ist ebenfalls nur durch den Tunneleffekt möglich. So ist im Innern der Sonne beispielsweise die Temperatur und damit die Energie der Wasserstoff-Kerne viel zu niedrig, als dass diese positiv geladenen Teilchen die elektrische Abstoßungskraft überwinden und sich vereinigen könnten. Das ermöglicht erst der Tunneleffekt. Ohne quantenmechanische Unschärfe gäbe es also kein Feuer im Innern der Sonne.

Auch der leere Raum (das Vakuum) unterliegt der Heisenbergschen Unschärferelation von Energie und Zeit. Der Energiegehalt im Vakuum, normalerweise null, unterliegt stets und überall einer bestimmten Ungewissheit. Er kann plötzlich für kurze Zeit einen Wert über oder unter Null annehmen. Man spricht von der sogenannten „Vakuumschwankung„. Durch diese Energieschwankungen erscheinen und verschwinden spontan immer wieder geladene Teilchen (Teilchen-Antiteilchen-Paare) und elektromagnetische Felder. Diese Fluktuationen kann man sich wie ein ununterbrochenes submikroskopisches Feuerwerk vorstellen. Die Lebensdauer der flüchtigen (virtuellen) Teilchen, die gewissermaßen aus dem Nichts entstehen, ist durch die Heisenbergsche Unschärferelation begrenzt und meistens äußerst kurz (winzige Bruchteile von Sekunden!).

Molekülbindung

Die Unschärferelation erklärt uns auch die Chemie. Nehmen wir z. B. Wassermoleküle: Elektronen umkreisen die Atomkerne. Die Quantenunschärfe bewirkt, dass es einige gibt, bei denen nicht zu entscheiden ist, zu welchem Atom sie gehören. Sie scheinen zu zweien zu gehören oder zu keinem; es wirkt als ob sie hin und her springen. Und genau das macht die Molekülbindung (Elektronenpaar-Bindung) aus, welche die Atome zusammenhält.

Diverse chemische Vorgänge werden durch den Tunneleffekt, also die Fähigkeit von Teilchen, scheinbar unüberwindliche Energiebarrieren zu durchqueren, erklärt. So können chemische Reaktionen noch stattfinden, obwohl eigentlich nicht genug Energie dafür vorhanden ist. Viele chemische Reaktionen im extrem kalten All sind z. B. nach aktuellem Kenntnisstand nicht ohne den Tunneleffekt möglich, darunter so elementare Reaktionen wie die von zwei Wasserstoffatomen zu molekularem Wasserstoff.

Die Unschärferelation ist zunächst nur in der Mikrowelt von Bedeutung. Aber es gibt auch bei makroskopischen Körpern Unschärfe-Beziehungen. Nur sind hier (im Maßstab der alltäglichen Beobachtungen) die von der Quantentheorie erzwungenen Unschärfen, z. B. zwischen dem Ort und der Geschwindigkeit, so winzig, dass man sie vernachlässigen kann. Bei einer Erbse von einem Gramm Gewicht beispielsweise kann die Ortsunschärfe von nur 10-22 Meter völlig ignoriert werden. Die prinzipielle Messungenauigkeit eines Tennisballs beträgt aufgrund der Unschärferelation nur ein Hundertbillionstel Prozent. Daher erscheinen uns die makroskopischen Modelle völlig konsistent und kontinuierlich, logisch mit unserer Vergangenheit verknüpft und als eine sinnvolle Basis für die Zukunft.

Verschränkung

Aufgrund mathematischer Überlegungen schloss Einstein auf geheimnisvolle Zusammenhänge zwischen Quantenteilchen, die gemeinsam entstanden sind. Zwei auseinander fliegende Teilchen benehmen sich so, als seien sie in Wirklichkeit nur eines. Der Physiker Erwin Schrödinger nannte solche Teilchen „verschränkt„. Ein unsichtbares Band knüpft die Elementarteilchen-Zwillinge zeitlos aneinander, auch über die Entfernung von Lichtjahren.

Nach der klassischen Regel hängt das Verhalten eines physikalischen Systems nur von der Situation in seiner unmittelbaren Nähe ab. Diese „Lokalität“ beschreibt auch, dass sich Informationen nie schneller als das Licht ausbreiten. Die Quantenmechanik ist aber nichtlokal, das heißt, mache Ereignisse können sich augenblicklich auf andere auswirken. Führt man z. B. eine Messung an einem der verschränkten Teilchen durch, so beeinflusst dies augenblicklich (also ohne Zeitverzögerung) auch die Ergebnisse der Messung am anderen, unabhängig davon, wie weit die Teilchen voneinander entfernt sind. So lassen sich ohne Zeitverlust auch Eigenschaften (z. B. Ort, Impuls oder Spin) des einen auf den anderen Partner übertragen, ohne dass sie nach den Regeln der klassischen Physik in Verbindung stehen.

Einstein hielt diese Erscheinung für absurd. Denn die Verschränkung widerspricht scheinbar der Speziellen Relativitätstheorie, nach deren Grundannahmen Ereignisse nur durch Faktoren bestimmt sind, die kausal abhängig sind. Außerdem schließt sie eine Signalübertragung mit Überlichtgeschwindigkeit aus. Einstein meinte, dahinter müssten klassische Mechanismen stecken und postulierte „verborgene Parameter„, um die „spukhafte Fernwirkung“ zwischen den zwei Komponenten eines Quantensystem zu erklären.

Die quantenmechanisch gekoppelten (also verschränkten) Teilchen verhalten sich wie Atome, die zu einem Molekül verbunden wurden. Doch besteht ein großer Unterschied: Verschränkte Photonen z. B. sind – anders als die chemisch verknüpften Atome – in keiner Weise aneinander gebunden. Das „System“ aus zwei Teilchen bildet vielmehr einen gemeinsamen Quantenzustand, selbst wenn sie sich noch so weit voneinander entfernen. Ihre Eigenschaften sind miteinander korreliert, d. h. sie sind nicht unabhängig voneinander bestimmbar. Wenn eines der Photonen z. B. durch eine Messung in einen bestimmten Zustand gezwungen wird, klappt der verschränkte Quantenzustand des Partners sofort ins Gegenteil um. Dies geschieht augenblicklich und unter Missachtung der (Licht-) Geschwindigkeitsbeschränkung.

Einfachstes Beispiel ist die Verschränkung der Spinzustände zweier Elektronen, die zusammen von einer Quelle ausgesandt werden und sich dann in entgegengesetzte Richtungen voneinander entfernen. Im verschränkten System hat keines der beiden Elektronen für sich einen bestimmten Spinwert. Der Gesamtzustand des Zwei-Elektronen-Systems ist eine Superposition der Korrelationen „erstes Objekt Spin plus und zweites Objekt Spin minus“ mit „erstes Objekt Spin minus und zweites Objekt Spin plus“ in jeder Richtung.

Im Fall von zwei Quantenbällen würde das bedeuten: Zwei Bälle fliegen auseinander und sind dabei immer gegenteilig gefärbt – ist der eine grün, muss der andere rot sein, und umgekehrt. Aber solange niemand hinschaut, befinden sich beide Bälle im Zustand der Farbüberlagerung. Erst wenn die Physiker die Farbe des einen Balles messen, zwingen sie ihn zu einer Entscheidung. Und im selben Moment verliert auch der andere seinen Überlagerungszustand und nimmt die Gegenfarbe an – selbst wenn er inzwischen schon Lichtjahre entfernt ist.

Daraus folgt: Sobald eines der beiden Objekte einen definiten Wert des Spins in einer Raumrichtung annimmt, erhält das andere Objekt augenblicklich den entgegengesetzten Spinwert – ohne dass zwischen beiden Information ausgetauscht werden müsste. (Übertragung von Information kann höchstens mit Lichtgeschwindigkeit geschehen, siehe Spezielle Relativitätstheorie.)

Die „Fernwirkungen“ oder Verschränkungen sind also letztlich eine Folge der Superposition: nicht begrenzt z. B. auf einen mehr oder weniger isolierten Ort, sondern nichtlokal verschmiert über beliebige Entfernungen. Und keines der beiden Teilchen besitzt einen wohldefinierten Impuls, ehe dieser gemessen wird. Verschränkte Teilchen befinden sich also gemeinsam in einem seltsamen („magischen“) Schwebezustand, bei dem ihre Eigenschaften zunächst nicht festgelegt sind, bis eine Messung sie zwingt, sich für einen möglichen Zustand zu entscheiden.

Experimentelle Nachweise

In den 1970er Jahren stand erstmals durch die Entwicklung des Lasers eine Präzisionstechnik zur Verfügung, um die Verschränkung in Experimenten zu überprüfen. Anfangs regte man Atome so an, dass sie ihre Energie unter Aussendung von zwei verschränkten Photonen wieder abgaben. Heute ist es fast schon Routine, Paare von Lichtquanten zu erzeugen, die einen gemeinsamen Quantenzustand bilden. Daher müssen wir davon ausgehen, dass Verschränkungen objektiv in der Natur bestehen. Quanten-Nichtlokalität gibt es also tatsächlich.

In der Regel macht sich die Verschränkung allerdings nur bei winzigen Objekten bemerkbar. Bei größeren Objekten gehen die Gesetze der Quantenphysik in die Gesetze der klassischen Physik über. Denn verschränkte Zustände sind sehr fragil und selbst kleinste Störungen führen zu ihrem Zusammenbruch. Größere Systeme lassen sich aber nicht so einfach von der Umgebung isolieren. Selbst sowohl in den besten verfügbaren Glasfaserkabeln als auch in der Luft stoßen Lichtteilchen auf Atome, was die Verschränkung auflösen kann – eine große Herausforderung für Experimentatoren.

Verschränkung gilt heute als eine seltsame, aber grundlegende Eigentümlichkeit der Quantenwelt, für die es in unserer Alltagswelt keine Parallele gibt. Sie ist nicht nur auf zwei Teilchen beschränkt. Physiker haben inzwischen Verschränkung in immer größeren Systemen gefunden – von Ionen in elektromagnetischen Fallen über ultrakalte Atome in Kristallgittern bis zu supraleitenden Quantenbits. (Bei sehr tiefen Temperaturen verliert die klassische Physik ihre Geltung und die Quantenmechanik übernimmt das Regiment. Dabei treten auch Erscheinungen wie Verschränkung und Unbestimmtheit makroskopisch zutage.)

Seit mehr als einem Jahrzehnt gibt es Ideen, denen zufolge die Schwerkraft und sogar die Raumzeit selbst aus der seltsamen Eigenschaft der Verschränkung hervorgehen könnte.

Fazit

Das Phänomen Verschränkung ist nur der bislang letzte Ruck, der unseren Verstand aus seinen gewohnten Bahnen wirft und wir staunend begreifen, wie fremd uns die Wirklichkeit im Grunde ist. Letztlich müssen wir uns in der Physik mit rein mathematischen Beschreibungen zufrieden geben, deren technische Anwendungen uns für ihre Unanschaulichkeit reich entschädigen.

Die Entdeckung der Quantenmechanik ist eine der größten Errungenschaften der Menschheit und hat unser Verständnis der Welt immens bereichert. Sie ist wahrscheinlich eine der tiefgründigsten physikalischen Theorien und zudem eine der erfolgreichsten überhaupt. Keine physikalische Theorie ist präziser. Tausende von Malen wurde sie in den Laboratorien und Forschungsstätten der ganzen Welt getestet. Ihre Vorhersagen (z. B. der Antimaterie) sind längst unglaublich exakt bestätigt. „Es gibt heute Milliarden Erfahrungen, die alle mit der Quantentheorie in Einklang stehen,“ sagte C. F. von Weizsäcker in einem Vortrag, „und keine, die nicht mit der Quantentheorie in Verbindung steht.“

Ohne die Quantenmechanik ist die Welt nicht zu verstehen. Sie erklärt nicht nur so Unterschiedliches wie die Entstehung und den Aufbau der Atomkern, die Supraleitung und das Leuchten der Fische in der Tiefsee, sondern auch den Urknall oder die Verdampfung von Schwarzen Löchern. Die Quantenphysik ist heute die Grundlage vieler Schlüsseltechnologien und spielt eine zentrale Rolle in der modernen Medizin, Kommunikation und Materialforschung. Mehr als ein Drittel des Bruttoinlandprodukts der westlichen Staaten wird mit Erfindungen erwirtschaftet, die auf Quantenphysik beruhen.

Viele technologische Entwicklungen basieren auf quantenphysikalischen Prinzipien. Mikroelektronik und Computertechnik z. B. nutzen Quantenphänomene wie den Tunneleffekt. Kein Computer würde ohne die Erkenntnisse der Quantenmechanik funktionieren. Das Internet wäre undenkbar, es gäbe weder Solarzellen, energiesparende LEDs oder Rastertunnelmikroskop. Auch medizinische Bildgebungsverfahren wie die Kernspintomographie, sowie Präzisionstechnologien wie die Quantenmetrologie und die hochgenaue Zeitmessung (Atomuhren) wären nicht möglich. Im Alltag technischer Gesellschaften begegnen die Menschen der Quantenphysik ständig, etwa am Laserscanner der Supermarktkasse, oder sie tragen sie mit sich herum – im Mobiltelefon.

Mehr noch: Verschränkung and andere Quanteneigenschaften sind auf dem Weg, zur Grundlage einzigartiger Quantenmaschinen zu werden. Auf dem Phänomen der Verschränkung beruhen Prototypen künftiger Quantencomputer sowie erste gelungene Versuche, Daten mittels verschränkter Photonen absolut abhörsicher über große Entfernungen zu übertragen. So sollen Quantencomputer und Quantenlaser in Zukunft die Informationstechnik revolutionieren; Quantenkryptografie (abhörsichere Verschlüsselung von quantenmechanischen Signalen), Quantenmetrologie, Quanteninternet usw. können zukünftig eine zentrale Rolle in Bereichen wie Kommunikation, Mobilität, Energieversorgung, Medizin und strategische Sicherheit spielen.

Eines steht auf jeden Fall fest: Noch viele Überraschungen warten auf uns, die auch unser Denken verändern werden. Die Gesetze der Quantenwelt zeigen uns aber auch, dass wir prinzipiell nie in der Lage sein werden, alles über die Welt zu wissen.

REM

Der Schlaf (2)

Bedeutung

Warum wir überhaupt schlafen und träumen, ist ein faszinierendes Rätsel der Nachtseite unseres Lebens. Viele Indizien weisen darauf hin, dass der Schlaf eine lebenswichtige Funktion zu erfüllen hat. Er steuert und optimiert auf vielen Ebenen eine Vielzahl biologischer Abläufe – begonnen beim Immunsystem über das hormonelle Gleichgewicht, die emotionale und psychische Gesundheit, Lernen und Gedächtnis bis hin zu Regeneration und „Entgiftung“ des Gehirns.

  1. Erholung und Regeneration

Erholung

Einige Wissenschaftler sehen in der Drosselung des Stoffwechsels während der Nachtruhe einen Energiesparmodus. Wenn wir einschlafen sinkt jedenfalls die Muskelspannung, ebenso die Geschwindigkeit des Herzschlags und der Blutdruck; die Atmung wird langsam und gleichmäßig und die Körpertemperatur wird abgesenkt. Auf diese Weise würden nach einem stressigen Tag die entsprechenden Stoffwechselvorgänge auf bis zu einem Drittel reduziert. Das würde verhindern, dass ein gleichwarmer Organismus in kürzester Zeit all seine Energiereserven „sinnlos vergeude“. Wir fallen jedenfalls schneller in Tiefschlaf und verweilen länger in ihm, wenn wir lange nicht geschlafen haben. Anscheinend werden im Schlaf die Energiespeicher wieder aufgefüllt. Denn je tiefer wir geschlafen haben, desto mehr Energie steht uns wieder zur Verfügung – wir fühlen uns gut erholt.

Nicht nur der Körper braucht die nächtliche Auszeit, um sich zu erholen, sondern auch das Gehirn. Obwohl unser Denkorgan seinen Energiebedarf während des Schlafes insgesamt herunterschraubt, scheinen bestimmte Hirnareale in den ersten Tiefschlafphasen geradezu mit Kraftstoff (ATP) geflutet zu werden. Da unser Gehirn weniger ATP verbraucht, kann es den Energiestoff im Tiefschlaf besonders in solchen Regionen, die typischerweise während der Nachtphase aktiv sind (etwa im Frontalkortex, im basalen Vorderhirn und im Hippocampus), anreichern. Der erhöhte ATP-Spiegel nach dem Einschlafen ermöglicht es dadurch, die Produktion von Biomolekülen wie Proteinen oder Fettsäuren in diesen Arealen störungsfrei ablaufen zu lassen.

Messungen zeigen, dass die Gesamt-Stoffwechselrate während des normalen täglichen Schlafs kaum gegenüber der Wachphase gedrosselt wird, da gewisse Prozesse und Systeme zumindest zeitweise besonders aktiv sind. Daher wird also eigentlich nur wenig Energie (Studien sprechen von 7 bis 8%) eingespart. Beispielsweise steigt während des Traumschlafs (REM-Schlaf) der Energieverbrauch extrem an und ist teilweise sogar höher als im Wachzustand. Andere wichtige physiologische Prozesse (z. B. die Reparatur von Zellen oder das Restaurieren lebenswichtiger Körperfunktionen) finden (nur) während der Tiefschlafphase statt. Das alles erfordert eine Menge Energie – und so verwundert es nicht, dass der Körper während des Schlafs ähnlich viele Kalorien verbraucht wie während der Ruhephasen am Tag.

Während nur ein Teil der Stoffwechselvorgänge im Schlaf Energie spart, geschieht das in anderen Teilen während der Wachphase. Wissenschaftler stellten fest, dass durch diese Partitionierung des Stoffwechsels in verschiedene Prozesse über den gesamten Schlaf-Wach-Zeitraum bis zu 37% Energie eingespart wird. Die Forscher sind der Überzeugung, dass dies der Optimierung des Stoffwechsels dient und während der Evolution einen klaren Selektionsvorteil bot. Die diskrete Partitionierung wäre also am Ende möglicherweise nicht nur eine Antwort, warum wir schlafen, sondern würde zugleich eine plausible Erklärung für die Frage bieten, wie sich Schlaf überhaupt evolutionsbiologisch so breit im Organismenbereich etablieren konnte.

Regeneration

Im Tiefschlaf arbeiten auch die Regenerationsmechanismen im Körper auf Hochtouren. Die Inaktivität während dieser Zeit schafft optimale Bedingungen, um die dringend notwendigen Wartungsarbeiten durchführen zu können. Dabei werden z. B. defekte Zellen repariert. Auch die in Chromosomen aktiver Nerven angesammelten DNA-Schäden werden nun beseitigt. Erst im Schlaf sind die Chromosomen so beweglich, dass die Schäden behoben werden können. Es wurde sogar ein Detektormolekül entdeckt, das DNA-Schäden aufspüren kann und dem Körper signalisiert, dass es Zeit zum Einschlafen und für die Reparatur der DNA ist. Womöglich schliefen also die ersten Wesen mit Nervensystem tatsächlich deswegen, um dem Erbgut ihrer Neurone Gelegenheit zu geben, die Schäden des Tages zu beseitigen.

Der Hormonhaushalt, der vom Hypothalamus kontrolliert und über die Hypophyse gesteuert wird, kommt in der Nacht in Schwung. Auf der Traumebene erreichen die Hormone Hoch- und Tiefwerte, die nur der Schlaf kennt. So läuft die Produktion diverser Wachstumshormone (z. B. Somatotropin) und Geschlechtshormone (z. B. LH, Testosteron) auf Hochtouren. Diese durchfluten uns besonders in den frühen Morgenstunden und regen z. B. die Zellteilung an: Wir wachsen im Schlaf.

Auch das Immunsystem ist besonders aktiv. Während des Schlafes nimmt die Konzentration des Stresshormons Cortisol, das vor allem bei psychischen Belastungen und Schlafentzug ausgeschüttet wird und die Immunabwehr unterdrückt, ab. Melatonin dagegen stimuliert das Immunsystem. Es ist an verschiedenen Körperfunktionen beteiligt und dämpft die Aktivität des Nervensystems. Melatonin sorgt z. B. für sehr tiefen und erholsamen Schlaf und für Regenerationsprozesse. Es hemmt aber auch das Wachstum bestimmter Krebszellen und schützt vor Freien Radikalen.

Tumore sind oft in uns angelegt, aber unser Immunsystem arbeitet dagegen, dass sie ausbrechen. Fehlt Melatonin, beginnen sich die schon angelegten Tumore sehr schnell zu entwickeln.

Auch andere Hormone (z. B. Prolactin, ein sogenannter Wachstumsfaktor) wirken stimulierend auf das Immunsystem und beschleunigen im Schlaf vor allem die Antikörperbildung. So nimmt die Zahl der natürlichen Killerzellen im Schlaf ebenso zu wie die Aktivität von Makrophagen und T-Lymphozyten. Viele Heilungsprozesse (z. B. die Wundheilung) laufen vor allem nachts ab. Es wurde eine Zunahme immunologischer Botenstoffe wie beispielsweise Interleukinen während des Schlafes festgestellt. Interleukine fördern das Einschlafen, so dass bei einer Infektion das Schlafbedürfnis höher ist: Infekte machen müde. Einige Forscher denken sogar, dass man eine beginnende Infektion mit ausreichend Schlaf abwehren kann.

Je älter wir werden, desto weniger stimuliert der Schlafrhythmus die Ausschüttung der entsprechenden Hormone. Ihr Mangel verursacht – zum Teil wenigstens – Schlafstörungen im Alter.

Vor allem während des in der ersten Nachthälfte auftretenden Tiefschlafs flottieren im Organismus zahlreiche Hormone, die sich auf den Zuckerstoffwechsel auswirken können und das Hungergefühl dämpfen. Das Gehirn scheint in dieser Phase seinen Zuckerbedarf im Vergleich zum Wachzustand zu dämpfen. Besonders sogenannte Wake Promoting Regions, die daran beteiligt sind, den Organismus wach zu halten, schrauben ihren Energieverbrauch zurück. Ein gestörter „Deltaschlaf“ (Tiefschlaf) bringt die Regulation des Zuckerstoffwechsels durcheinander. Dabei steigt der Spiegel des appetitanregenden Hormons Ghrelin an, gleichzeitig sinkt der des hungerdämpfenden Hormons Leptin. Sind Menschen unausgeschlafen, greifen sie eher zu süßen und fettreichen Speisen. Fehlender Schlaf kann daher auf die Dauer dick machen.

Reinigung

Schlaf sorgt auch dafür, dass unser Denkorgan nicht in seinem eigenen Abfall erstickt. Das Netzwerk zur Abfallentsorgung im Gehirn wird als „glymphatisches System“ bezeichnet. Die klare Hirnflüssigkeit (Zerebrospinalflüssigkeit) fließt außerhalb der Blutgefäße zwischen den Zellen. Während des Schlafes vergrößern sich die Zellzwischenräume um etwa 60%, was vermutlich den Abtransport des zellulären Abfalls erleichtert. Die Blutgefäße treiben dabei wie Pumpen die umgebende Hirnflüssigkeit an und spülen die Abfallstoffe aus. Einige Wissenschaftler vertreten die neue These, dass wir überhaupt nur schlafen, damit das Gehirn gereinigt werden kann.

[Noradrenalin spielt offenbar eine Schlüsselrolle für die nächtliche Reinigung des Gehirns. Der Botenstoff wird im Hirnstamm während des Tiefschlafs rhythmisch ausgeschüttet und verengt die Blutgefäße im Gehirn. Je mehr von dem Noradrenalin zirkuliert, desto stärker ziehen sie sich zusammen. Das Volumen der Hirnflüssigkeit schwankt daher im Rhythmus der Noradrenalin-Wellen.

Nach Einnahme eines Schlafmittels (Zolpidem) sinkt bei Mäusen der Noradrenalin-Spiegel im Tiefschlaf um 50%. Die Tiere schlafen schneller ein – allerdings geht der Flüssigkeitstransport im Gehirn um ca. 30% zurück. Die Abfallbeseitigung ist gestört.]

Ist das glymphatische System beeinträchtigt, kann das vermutlich neurodegenerative Krankheiten begünstigen. So wird während des Schlafes Beta-Amyloid – ein Protein, das bei der Entstehung der Alzheimererkrankung eine Schlüsselrolle spielt – offenbar aus unserem Denkorgan ausgeschwemmt und entsorgt. Bei schlechtem Schlaf sammelt sich toxisches Beta-Amyloid verstärkt an. Das Ausschwemmen von Schad- und Giftstoffen, die sich tagsüber angesammelt haben, beugt also offenbar Krankheiten wie die Alzheimerdemenz vor.

2. Lernen und Gedächtnis

Für Biologen und Mediziner geht die Funktion des Schlafes über Erholung und Regeneration hinaus. So ist seine Bedeutung für Lernen und Gedächtnis heute unbestritten. Im Schlaf kann sich unser Gehirn voll damit beschäftigen, die Erinnerungsspuren des Tages zu verarbeiten und ins Langzeitgedächtnis einzugravieren. Denn während im Wachzustand permanent einströmende Informationen die frischen, noch instabilen Gedächtnisspuren überlagern bzw. auslöschen können („retrograde Interferenz„), bleiben während der nächtlichen Ruhephase die Inputkanäle für neue Informationen aus den Sinnessystemen weitgehend geschlossen.

Neue Erinnerungsinhalte können im Schlaf daher ungestört analysiert, stabilisiert, verstärkt und integriert werden. Sie werden sortiert, mit Vergangenem verglichen und nach ihrer Wichtigkeit, d. h. gemäß den persönlichen Wertvorstellungen, bewertet. Der Schlaf steuert so, woran wir uns später erinnern, und auch, in welcher Weise wir das tun. Der Prozess der Verdichtung und Sicherung der Inhalte wird im Fachjargon Konsolidierung genannt. Bekräftigt und behalten werden einerseits vor allem Eindrücke, die mit starken Emotionen verbunden sind, andererseits aber auch jene, die in Zukunft wichtig sein könnten. Alles andere passiert schon nicht die erste Hürde zum Langzeitgedächtnis.

Während der nächtlichen Ruhephase werden Verbindungen zwischen Nervenzellen (Synapsen) sowohl verstärkt als auch geschwächt. Unterdrückt werden die Synapsen, die nur wenig aktiviert wurden bzw. gänzlich ungenutzt blieben oder schlecht zu bestehenden Gedächtnisinhalten passen. Das ist wichtig, um am folgenden Tag wieder neue Informationen abspeichern zu können. Gleichzeitig wird der Bestand jener Schaltkreise, die entweder im Wachzustand stark und durchgängig aktiv waren oder sich in bereits vorhandene Erinnerungen gut einfügen, gesichert und gestärkt. Schlaf dient also dazu, das Dilemma aus der für das Lernen nötigen Veränderbarkeit des Gehirns durch Sinnesreize einerseits und der dauerhaften Stabilität des Denkorgans andererseits aufzulösen.

Die entscheidende Phase für insbesondere solche Gedächtnisprozesse, die zur Bildung länger anhaltender Erinnerungen beitragen, ist der Tiefschlaf – und nicht, wie lange angenommen wurde, der REM-Schlaf. Vor allem ist der erste Teil der Nacht, in der wir am tiefsten schlafen, der für die Gedächtniskonsolidierung von großer Bedeutung ist. Träumen ist dagegen für die Konsolidierung nicht notwendig.

Im Hippocampus, einer zentralen Schaltstelle im Gehirn, werden sämtliche am Tag gesammelten Eindrücke, Erlebnisse und Informationen erst einmal gespeichert bzw. zwischengelagert (in Form von spezifischen Aktivitätsmustern). Um sie langfristig zu sichern, müssen sie in den Neokortex überspielt werden, den Sitz des Langzeitgedächtnisses. Dabei werden die tagsüber gesammelten Inhalte noch einmal durchgespielt.

Das Stresshormon Cortisol unterdrückt die Signalübertragung aus dem Hippocampus zum Neokortex. Seine Freisetzung ist aber im Delta-Schlaf gehemmt (s. o.), so dass die Kommunikation zwischen den beiden Hirnregionen in dieser Schlafphase weitgehend ungestört ablaufen kann, zumal auch keine neuen Informationen von außen einlaufen.

Der Neokortex schickt wiederum Informationen an den Hippocampus und signalisiert ihm, welche Inhalte er noch einmal reaktivieren soll. In dieser Kommunikationsschleife (hippocampal-kortikaler Dialog) wird endgültig entschieden, welche Gedächtnisinhalte durch mehrmaliges Reaktivieren (Wissenschaftler sprechen vom „neuronalen Replay„) allmählich in das Langzeitgedächtnis integriert werden sollen; es sind vor allem solche, welche zukünftig relevant sein könnten und mit dem Vorwissen gut kombinierbar sind. Erst nach dem endgültigen Transfer in den Neokortex bleiben Fakten und Ereignisse langfristig im Denkorgan haften.

Dass der Neokortex die Informationen nur langsam und nach mehrmaligen Wiederholungen übernimmt, ist wichtig für die Wahrung des Vorwissens. Würde das zu schnell gehen, käme es zur sogenannten „chaotischen Interferenz„, bei der Vorwissen zerstört würde.

Die klarsten Belege dafür, dass Schlaf zum Lernen nötig ist, findet man beim sogenannten prozeduralen Gedächtnis. Es speichert alles, was mit geistigen und körperlichen Fertigkeiten zu tun hat, seien sie motorisch oder sensorisch. Die Enkodierung solcher Fertigkeiten erfolgt durch wiederholtes Training. Der entscheidende Punkt für das Lernen ist, wie man die Zeit nach dem Training verbringt. Bleibt man lange wach, stagnieren die Leistungen oder verschlechtern sich sogar. Nach dem Schlafen ist das Leistungsvermögen deutlich gestiegen; das Niveau kann auch Tage und Wochen nach der Trainingseinheit noch behalten werden. Demnach erreicht der Mensch bei motorischen Fertigkeiten nur dann substanzielle Leistungszuwächse, wenn er binnen Tagesfrist nach dem Üben schläft.

Eine Untersuchung zeigt die Reorganisation einer Gedächtnisspur beim motorischen Lernen (Tastenabfolge auf einer Tastatur). Das dabei auf dem EEG sichtbare Muster der Hirnströme wiederholt sich kurz nach dem Einschlafen wie zuvor im Kortex zu sehen – ganz so, als ob die Tastenabfolge noch einmal geübt würde. Es verblasst dann aber während des REM-Schlafes allmählich. Dafür tritt es tief im Inneren des Gehirns auf, in den Basalganglien, die für das motorische Lernen von Bedeutung sind.

Auch andere Dinge, die Menschen (oder Tiere) während des Tages lernen, werden während des Schlafens verfestigt. So kann sich unser Gehirn auch Vokabeln und mathematische Formeln im Schlaf einprägen. Lerninhalte, vor dem Einschlafen dargeboten, werden besser behalten als solche vor einer Wachperiode. So prägen wir uns ein Klavierstück, einen Vortrag oder einen Weg besser ein. (Die Leistung verbessert sich gegenüber Kontrollgruppen um etwa 20%!) Selbst nach einem kurzen Nickerchen können wir uns frisch gelernte Fähigkeiten oder Fakten besser merken. Es wurde festgestellt, dass das Gehirn in den Arealen, wo es vorher gelernt hat, auch tiefer schläft als sonst. Die Tiefschlafwellen vergrößern sich in diesen Regionen um etwa 80%. (Je größer sie werden, desto besser setzt sich das neue Wissen im Gehirn fest.)

Kreativität

Bei der Konsolidierung geht es nicht nur um einfaches Verschieben der Erinnerungen aus dem Kurzzeitgedächtnis in den Langzeitspeicher. Während des Tiefschlafs werden die neuen Gedächtnisinhalte auch sinnvoll zusammengefasst und abstrahiert und in bestehende Erinnerungen integriert. Die Fachleute sprechen von Strukturierung und Reorganisation der aufgenommenen Information. Dabei zieht das Gehirn aus dem Gelernten Schlüsse und sucht Zusammenhänge. Es handelt sich also um eine aktive Konsolidierung des tagsüber Erlebten und der erworbenen Fakten und Fähigkeiten. Viele Forscher sprechen heute lieber von der „Entwicklung“ einer Erinnerung als von der „Festigung“.

Unser Gehirn verändert die Lerninhalte auch qualitativ und arrangiert sie teilweise neu. Das fördert die Entdeckung neuer und sinnvoller Zusammenhänge und ermöglicht alternative Einsichten bzw. eine andere Sicht auf die Dinge. So erhalten wir oft Denkanstöße, wenn wir etwas überschlafen. Sogar die Lösung von Problemen stellt sich manchmal ganz von selbst ein, wenn wir erst einmal eine Nacht darüber geschlafen haben, wie auch eine alte Volksweisheit empfiehlt. Besonders erfolgreich gelingt das Problemlösen gemäß Studien mit einem kurzen, tiefen Schläfchen. Es fördert das Auftreten von Geistesblitzen und kann zu zündenden Ideen führen.

Dem Chemiker Dimitri Mendelejew soll die entscheidende Idee für das Periodensystem der Elemente gekommen sein, als er erschöpft vom erfolglosen Nachdenken einnickte. Und auch Friedrich August Kekule berichtete, dass er vor dem Kaminfeuer einschlief und mit der lange gesuchten Struktur des Benzols im Kopf wieder aufwachte.

[Aus den Erfahrungen, die Kinder im Wachzustand machen, extrahieren sie im Schlaf Zusammenhänge, Regeln und abstrakte Konzepte, meint der Schlafforscher Jan Born. Einzelne Episoden und Details spielen dabei keine Rolle für das frühkindliche Gehirn. Es geht darum, generalisiertes Wissen und Schemata zu bilden, um sich später überhaupt in der Welt zurechtzufinden.]

3. Gefühle und Emotionen

Emotionen zeigen an, was für uns persönlich wichtig ist. Der REM-Schlaf fügt der Erinnerung eine gewisse emotionale Tönung bei und fungiert als zusätzlicher Gefühlsverstärker, z. B. bei schwachen (und damit meist unbewussten) Assoziationen. Die Schlafforscher sind sich einig, dass die aktiven Traumphasen für das Wohlbefinden eines Menschen unentbehrlich sind. Sie dienen vor allem der Verarbeitung von Gefühlen, Problemen und Ängsten.

Am Traumerleben sind die gleichen Zentren der Großhirnrinde beteiligt, die auch im Wachzustand für die „höhere“ Verarbeitung von sensorischen Reizen zuständig sind. Vor allem ist auch das limbische System aktiv, also genau diejenigen Hirnregionen, die an der Entstehung von Gefühlen beteiligt sind. Daher sind Trauminhalte meist sehr emotionsgeladen. Insbesondere feuern die Mandelkerne (Amygdalae) und die mit ihr verbundenen Strukturen. Die Amygdalae gelten als eine Art Schaltzentrale der Gefühle; sie sind eng mit der „Gedächtniszentrale“ des Gehirns, dem (benachbarten) Hippocampus, verbunden. Auch sie spielen bei der Langzeitspeicherung emotionaler Eindrücke eine wichtige Rolle, weshalb wir uns generell an gefühlsgeladene Szenen besser erinnern können als an neutrale Inhalte.

Dass die Gefühlszentrale des Gehirns gerade beim Träumen auf Hochtouren läuft, könnte eventuell am Stresshormon Cortisol liegen, dessen Konzentration gerade in der zweiten Nachthälfte, in der wir am meisten träumen, besonders hoch ist (siehe auch oben). Die Amygdalae und andere limbische Strukturen enthalten sehr viele Rezeptoren, die auf diesen Botenstoff reagieren.

Da im REM-Schlaf die Aktivität auch in Hirngebieten, die sich am Aufspüren von Irrtümern und Konflikten beteiligen, steigt, dachten Forscher lange, Schlaf (vor allem der Traumschlaf) würde stets Erinnerungen verstärken, die mit negativen Gefühlen verknüpft sind – und zwar keineswegs nur vorübergehend. Der Effekt sei um so stärker, je länger der REM-Schlaf dauere. (Das könnte erklären, warum sich bei depressiven Patienten nach Schlafentzug – besonders wenn er die REM-Phasen betrifft – oft die Stimmung verbessert.) Evolutionär betrachtet könnten die gespeicherten negativen Emotionen unseren Vorfahren ermöglicht haben, sich an riskante Situationen zu erinnern – und an die damit verbundene Gefahr.

Nach Ansicht des Neurowissenschaftlers, Psychologen und Philosophen Antti Revonsuo sind Träume dazu da, bedrohliche Situationen zu simulieren und uns dadurch zu helfen, im Alltag damit besser fertig zu werden. Im Schlaf übten wir quasi Strategien der Flucht, Verteidigung und Anpassung an heikle Situationen ein. Revonsuo hat seine Theorie später auch auf soziale Bedrohungen ausgeweitet, was durch eine Erhebung gestützt wird.

Viele Psychoanalytiker betonen die „kartharische“ Wirkung des Träumens, also die Annahme, durch die Verarbeitung von Trauminhalten würden sich psychische Spannungen lösen. Auch für das Bewältigen von Ängsten scheinen Träume wichtig zu sein. Neuere Studien legen nahe, dass stark an Emotion gekoppelte Erinnerungen durch die Nachtruhe reduziert werden und erlittene Traumata gelindert werden können. Die Schlafphase mit den schnellen Augenbewegungen fördere zwar die Erinnerung an gefühlsbeladene Momente, schwäche deren emotionalen Gehalt aber immer mehr ab. Habe man erst einmal ein paar Nächte darüber geschlafen, wirkten schreckliche Eindrücke gar nicht mehr so schlimm – obwohl man sich gut daran erinnert. Daher scheint insbesondere der REM-Schlaf die Verarbeitung erschütternder Erlebnis zu unterstützen. Doch könnten die Verarbeitungsmechanismen auch überfordert werden, wenn ein emotionales Erlebnis mit überwältigender Wucht einschlägt.

Verschiedene Schlafphasen verarbeiten und interpretieren wohl unterschiedliche Arten von Informationen. Dem Wechsel zwischen Non-REM-Schlaf und REM-Schlaf kommt daher für die Informationsverarbeitung im Gehirn und für unser Gedächtnis wahrscheinlich eine entscheidende Bedeutung zu.

Schlafentzug

Bei fehlender Nachtruhe setzt zwar keines der Systeme komplett aus, es können aber schädliche Abfallprodukte nicht besonders wirksam aus dem Gehirn entfernt werden. So hat schon eine einzige teilweise oder komplett durchwachte Nacht negative Auswirkungen auf verschiedene Körperfunktionen sowie die kognitive Leistungsfähigkeit. Das Gehirn ist erregbarer, d. h. Nervenzellen reagieren gewissermaßen nervöser auf Einzelreize und feuern leichter. Wir reagieren schneller aggressiv und gereizt und es gelingt schlechter, neue Verbindungen herzustellen. Zudem können wir Bewegungen schlecht koordinieren.

Schlafentzug führt bei Lernkontrollen zu einer signifikanten Erhöhung der Fehlerrate. Offenbar führen verlängerte Wachphasen zu einer Überlastung bestimmter neuronaler Schaltkreise, so dass kleinere Hirnareale unbemerkt kurze Nickerchen einlegen. Womöglich sind so manche Irrtümer, „dumme“ Fehler, gereizte Reaktionen und Verstimmungen das Ergebnis dieses lokalen Schlafs bei Menschen, die sich selbst für hellwach und völlig unter eigener Kontrolle halten.

Ständiger Schlafmangel zieht ein breites Spektrum miteinander verquickter krankhafter Erscheinungen und Leistungseinbußen nach sich, darunter außer verminderter Aufmerksamkeit und Gedächtnisleistung schlechtere geistige und körperliche Reaktionsfähigkeit sowie Motivationseinbußen. Das geistige Leistungsvermögen (Konzentration, Kreativität, Urteilsvermögen) schwindet also rapide. Aber auch Emotionsregulation und planerische Fähigkeiten sind betroffen.

Die Symptome treten in einer charakteristischen Reihenfolge auf: Nach anfänglicher Nervosität und Gereiztheit sowie Konzentrationsstörungen folgen massive körperliche Probleme. Es kommt zu Stoffwechselfehlfunktionen. Insbesondere sind Unregelmäßigkeiten im Hormonhaushalt und Beeinträchtigungen des Immunsystems zu beobachten. (Allein nach einer einzigen durchwachten Nacht geht z. B. die Aktivität der natürlichen Killerzellen um bis zu 28% zurück.) So kann fortgesetzter Schlafmangel schließlich zu gesundheitlichen Folgen führen und trägt möglicherweise zur Entstehung von chronischen Leiden wie Diabetes mellitus, Adipositas und Bluthochdruck bei.

Es ist zu befürchten, dass ein an Schlafmangel leidender Mensch negative Erlebnisse deutlich besser im Gedächtnis behält als positive. Daher trägt zu wenig Schlaf unter bestimmten Umständen auch zu psychischen Erkrankungen bei. So kann die vermehrte Ansammlung von Stoffwechselprodukten im Gehirn auch das Risiko erhöhen, an Alzheimer zu erkranken. Außerdem ist das Krebsrisiko erhöht.

Werden Menschen länger am Schlafen und Träumen gehindert, verlieren sie innerhalb kürzester Zeit ihr seelisches Gleichgewicht bis zum völligen Zusammenbruch ihrer Persönlichkeit. An letzter Stelle der Symptome stehen in der Regel immer die Halluzinationen. Versuchspersonen verlieren zunehmend die Fähigkeit, die Trugbilder als solche zu erkennen. Je länger der Entzug währt, desto länger dauern sie an. Die Ursache liegt wahrscheinlich in der nachlassenden Aufmerksamkeit, die normalerweise darüber wacht, dass der Schleier zwischen Traum und Wirklichkeit nicht zerrissen wird.

Ein extrem starker Realitätsverlust tritt beim Oneirismus auf (bekanntestes Beispiel ist das Alkoholentzugsdelirium), bei dem es Betroffenen an nächtlichem REM-Schlaf mangelt, so dass er sich tagsüber Platz verschafft. Daher sind die Halluzinationen im Delirium mit starken Gefühlen verbunden.

REM

Die frühe Besiedlung Amerikas

Schon seit vielen Jahren sind die meisten Wissenschaftler davon überzeugt, dass die Wurzeln der indigenen Bewohner Amerikas in Nordostasien liegen. Dort im arktischen Sibirien lebten Menschen schon lange vor dem letzten Eiszeitmaximum – nachweislich bereits vor etwa 45 000 Jahren – und trotzten den harschen Bedingungen. Offenbar verfügten sie über ein ganzes Arsenal an Taktiken und Strategien, um mit den Widrigkeiten zurechtzukommen. Dazu gehörte wärmeisolierende, maßgeschneiderte Kleidung aus Fellen, die mit Knochennadeln und Sehnen zusammengenäht wurden. Auch Fortschritte bei der Bejagung von Mammuts könnten wesentlich dazu beigetragen haben, dass Menschen so weit im Norden überleben konnten.

Nach 36 000 v. h. wurde eine Gruppe aus dieser Population zunehmend von den übrigen Gemeinschaften abgeschnitten und war vor etwa 25 000 Jahren endgültig genetisch von ihnen getrennt. Diese isolierte Gruppe altsteinzeitlicher Ostasiaten („Alt-Ostasiaten„) stellt nach Genomvergleichen zu großen Teilen die Urbevölkerung Amerikas. Ebenfalls heiße Kandidaten für die Vorfahren der ersten Amerikaner sind die Nordsibirier, die spätestens vor 31 600 Jahren in Beringia, aber auch in Ostsibirien und Westalaska lebten.

Während der letzten Eiszeit war der Meeresspiegel beträchtlich gesunken (bis zu 130 Meter), da große Mengen Wasser in Gletschern und Polkappen gebunden waren. So hatte sich wohl vor etwa 34 000 Jahren zwischen Sibirien und Alaska ein Landbrücke gebildet, Beringia genannt, die heute im mittleren Bereich 100 Meter unter dem Meeresspiegel liegt.

Gewappnet mit einem über Generationen erworbenem Expertenwissen, haben die Menschen auf dem trocken gelegten Beringia vermutlich nicht schlecht gelebt. Es konnte sich hier keine Eisdecke bilden, da die Luft, die über das Land zog, so trocken war, dass kaum Schnee fiel. So gediehen Gräser, Seggen und andere der Kälte angepassten Pflanzen, die großen Pflanzenfressern (wie Wollmammuts von bis zu neun Tonnen Lebendgewicht, Steppenbisons, Moschusochsen und Rentieren) als Nahrung dienten. Zudem machten auf den vielen Inseln Seelöwen Station, die wohl ebenfalls als Beutetiere in Frage kamen.

Die Alt-Ostasiaten und Alt-Nordsibirier trafen vor ca. 25 000 bis 20 000 Jahren aufeinander – während oder kurz nach dem Beginn des letzten eiszeitlichen Maximums (etwa 24 000 bis 22 000 v. h.), als in Sibirien ein extrem kaltes Klima herrschte und dort kaum mehr Pflanzen oder Tiere existierten. Wo sie sich trafen, ob im westlichen Beringia oder im östlichen Asien, ist nicht geklärt. Allerdings suchten während des eiszeitlichen Maximums die Menschen wohl Zuflucht in Regionen mit mehr Ressourcen und besserem Klima.

Es finden sich auch keine Belege für eine Besiedlung Nordasiens zu dieser Zeit. In Beringia dagegen herrschte damals ein relativ mildes Klima. Es war ein für Menschen und Tiere angenehmer Ort zu einer Zeit, als die Eisschilde ihre größte Ausdehnung hatten. Es gibt Funde (die ältesten 24 000 bis 22 000 Jahre), nach denen dort Menschen Jagd auf Wildpferde, Karibus und Wapitis machten und ihre Beute an Lagerplätzen zerlegten. Es spricht viel dafür, dass die beiden Urpopulationen (Alt-Ostasiaten und Alt-Nordsibirier) das letzte glaziale Maximum an der Südküste Mittelberingias ausgesessen und sich dort auch vermischt haben. Was damals aber genau geschah, lässt sich noch nicht genau rekonstruieren; die wenigen Belege, die man bisher besitzt, überzeugen nicht alle Archäologen.

Obwohl also unklar bleibt, wo sich die Alt-Ostasiaten und Alt-Nordsibirier definitiv zusammengeschlossen und vermischt haben und so mehrere tausend Jahre isoliert von anderen arktischen und sibirischen Kulturen verbrachten, scheinen sie sich vor ungefähr 22 000 bis 18 100 Jahren in mindestens zwei Linien aufgespalten zu haben. Von dem einen Abstammungszweig, „Alt-Beringier“ („Ancient Beringians“) genannt, sind keine lebenden Nachkommen bekannt. Vor einigen Jahren fand man aber am Upward Sun River in Alaska ein 11 500 Jahre altes Skelett eines Mädchens, dessen Vorfahren zu dieser Population gehört haben könnten. Die Menschen des anderen Zweigs, die „Ancestral Native Americans„, gelten als die Ahnen der Amerikaner, die möglicherweise vor 20 000 Jahren (oder früher) von Beringia oder Nordostasien an der amerikanischen Westküste entlang gen Süden zogen.

Die Vorfahren der Paläoamerikaner teilten sich dann vor 17 500 bis 14 600 Jahren in eine nördliche und eine südliche Population – womöglich südlich der Eisschilde, die damals das heutige Kanada bedeckten. Zu dem einen Zweig gehören die nördlichen Ureinwohner Amerikas und damit z. B. die Vorfahren der Algonkin, der Na-Dene, der Salish und der Tsimshian, deren Nachkommen heute in Kanada und im Norden der USA leben.

Als das Eis weggetaut war, kam es zu einer Rückwanderung. Die Vertreter der nördlichen Stämme zogen nach Norden und verdrängten die Beringianer. Die heutigen Bewohner Alaskas und Nordkanadas waren also, mit Ausnahme der Inuit, Rückwanderer. (Die Inuit gehen auf eine viel spätere Einwanderungswelle zurück und sind durch genetische Beziehungen zu anderen sibirischen Gruppen gekennzeichnet.) Es fehlen aber noch viele Teile, ehe wir uns ein akkurates Bild machen können.

Aus dem anderen Zweig der Ancestral Native Americans gingen die Paläoamerikaner hervor, deren Vertreter sich rasch nach Süden ausbreiteten. Von ihnen stammen viele Völker in Mexiko, Mittel- und Südamerika ab. Insgesamt zeigt sich damit ein Bild, das sich beispielsweise auch in der Sprachgeschichte widerspiegelt. Schon in den 1980er-Jahren haben die Wissenschaftler J. Greenberg und C. Turner aufgrund linguistischer und anderer Daten eine erste Supersprachfamilie konstruiert, die „Amerind-Sprachfamilie„, aus der fast alle heutigen indigenen Sprachen Amerikas hervorgegangen sein sollen, und die weit über 10 000 Jahre in die Vergangenheit reicht.

Die Landroute

Zur Zeit der letzten Maximalvereisung lag eine aus einem riesigen westlichen Eisschild (dem Laurentidischen Eisschild) und einem kleineren östlichen Eisschild (dem Kordilleren-Eisschild) bestehende Barriere quer über Nordamerika. Sie hatte ihre größte Ausdehnung vor 22 000 bis 19 000 v. h. erreicht. Riesige Gletscher blockierten damals die Täler Nordasiens auf der einen Seite der Beringstraße und die Flächen im Norden Amerikas auf der anderen. Sie versperrten so viele Jahrtausende lang den direkten Weg nach Süden.

Lange wurde vor allem von US-amerikanischen Paläontologen die „Clovis first“-Theorie vertreten. Danach drangen die ersten Ancestral Native Americans erst nach Süden, als sich am Ende der Eiszeit eine erster Korridor zwischen den Eisschilden geöffnet hatte. Der Name Clovis stammt von erstmals in den 1930er Jahren bei Clovis/New Mexico neben fossilen Knochen gefundenen Speerspitzen, den „Clovis peints„: massive, längliche Klingen, von denen einige 21 Zentimeter Länge erreichten. Ihre Form erinnert an Lorbeerblätter, mit einer charakteristischen Einkerbung an der Basis zum Einpassen des Speerstocks.

Die Clovis-Menschen waren spezialisierte, mobile Großwildjäger. Vom Nordwesten der USA bis nach Panama entdeckte man an mehreren tausend Fundstellen ihre Gerätschaften, wie Knochenwerkzeuge, Hammersteine, Kratzer, Messer, Pfeil- und die charakteristischen Speerspitzen. Die Clovis-Kultur blühte aber, wie man inzwischen weiß, vor 12 000 Jahren nur ganze 200 Jahre lang und war schon vor 11 800 Jahren erloschen, möglicherweise auf Grund von sich verändernden Klimabedingungen oder einem Meteoriteneinschlag.

Es ist inzwischen klar, dass die Clovis-Leute schon da waren, bevor der eisfreie Korridor im Norden den Weg nach Süden freigab. Darauf deuten Clovis-Funde aus der Zeit vor 14 500 bis 13 800 Jahren aus verschiedenen Regionen der USA hin. Hinzu kommen Spuren der Vorläufer der Clovis-Leute. So wurden an der Buttermilk-Creek-Fundstelle die ältesten Steinwerkzeuge aus ganz Nordamerika entdeckt, insgesamt mehr als 19 000 Artefakte des Clovis-Horizonts, die eindeutig aus der Prä-Clovis-Ära stammen. Die meisten sind Abfallsplitter, die beim Zurechthauen oder Nachschärfen von Feuersteinklingen und Speerspitzen entstanden sind. Auch in Cactus Hill, einer Fundstätte in Virginia, scheinen die Forscher Menschen aus der Prä-Clovis-Ära auf der Spur zu sein, welche dort sogar schon vor mehr als 18 000 Jahren lebten. Die Funde dort unterscheiden sich in der Mehrheit deutlich von den Clovis-Werkzeugen, haben aber auch gemeinsame Züge, beispielsweise die Abschlagtechnologie.

Unter einer bereits freigelegten Clovis-Fundstätte am Savannah-River entdeckte man in tieferen und somit älteren Sedimentschichten Artefakte, die sich völlig von denen der Clovis unterscheiden (kleine Steinklingen und Schabwerkzeuge, vermutlich zur Bearbeitung von Holz, Knochen und Horn), hingegen keine einzige Speerspitze vom Clovis-Typ. Auch ein 15 500 Jahre altes Steinwerkzeug (neben Projektilen und Knochen) aus Pennsylvania sieht anders aus als die Clovis-Fundstücke. Diese Menschen hatten offenbar eine ganz andere Kultur als die hochspezialisierten Clovis-Jäger. Darauf deuten auch weitere Funde im Osten (und Süden) der USA hin, die sogar auf 21 000 Jahre geschätzt werden.

Küstenrouten-Theorie

Heute glauben die meisten Forscher, dass die ersten Menschen mit Booten entlang der Pazifikküste ins Land südlich der Eisschilde vorgedrungen sind. Vor Beringia befand sich vor über 18 000 Jahren ein gewaltiger Archipel aus zahllosen Inseln. Durch die Landbrücke war gleichzeitig eine durchgehende Küstenlinie entstanden. An ihr entlang oder per Inselhopping könnten sich die Menschen in Einbäumen (ausgehöhlten Baumstämmen) oder Fellbooten (Kanus aus Tierhäuten) Richtung Süden vorgewagt haben. Dieses Szenario würde auch gut zu den genetischen Daten passen.

Allerdings wurden bisher noch keine Boote gefunden. Die Materialien sind schnell vergänglich, dürften sich also auch nur selten erhalten haben. Jedenfalls waren die Vorgebirge und Inseln Nordamerikas dank des Ozeans mit seinen etwas milderen Temperaturen schon vor mehr als 16 000 Jahren größtenteils eisfrei und boten reichlich Nahrung. Die Einwanderer wären demnach von dem Süden Beringias oder eventuell auch der ostasiatischen Küste entlang der Westküste des amerikanischen Kontinents nach Süden geschippert (Küstenrouten-Theorie), an Land gegangen und ins Landesinnere vorgedrungen. Entlang des Pazifikbogens (mit Ausnahme in den Tropen) gab es einen fast geschlossenen Kelpwald* voller Muscheln, Otter und Seelöwen, meinen einige Forscher. In den Küstengewässern habe es nur so gewimmelt von Fischen (z. B. Lachsen), Meeresfrüchten, Seevögeln und Robben.

*Kelp ist Riesentang aus Rot- und Braunalgen, der in kalten Küstengewässern durchschnittlich 40 Meter hoch wächst und der eine großen Anzahl von Lebewesen anzieht – eine unerschöpfliche Nahrungsquelle für geübte Jäger und Fische.

Für Menschen, die mit den Gefahren von Gezeiten und Meeresströmungen umzugehen wussten, hatte diese Route also enorme Vorteile – und war auch weit einfacher als über Land: Die Umgebung und damit die Lebensbedingungen blieben relativ gleich, was diese Strecke zum Weg des geringsten Widerstands machte. Aber es ist schwierig, diese Route vollständig durch archäologische Befunde zu rekonstruieren. Ein großer Teil des damaligen Pazifikufers liegt heute auf dem Meeresgrund, 80 bis 100 Meter unter dem Meeresspiegel. Nach der Eiszeit überfluteten die Wassermassen die alte Uferlinie. Allerdings wird dieser Effekt an einigen Stellen wieder aufgehoben, da sich gleichzeitig die Nordamerikanische Erdplatte seit dem Abtauen des Eispanzers hebt.

Das ist beispielsweise beim Haida-Archipel der Fall, einer Inselgruppe etwa 100 Kilometer vor der Küste der kanadischen Provinz British Columbia. Im Niedrigwasser wurde mit einem Tauchroboter eine von Menschenhand konstruierte Fischfalle aus reusenartig aufgereihten Steinen fotografiert, die auf ein Alter von 13 800 datiert wurde.

In der Lawyer’s Cave an der Pazifikküste Alaskas, auf Höhe der Wrangel-Insel, fanden die Forscher ein Knochenstück eines Hundes. Die Fundstelle macht klar, dass Menschen und ihre Hunde hier an der Pazifikküste entlanggezogen sind – und sogar, wann sie kamen: vor 16 000 Jahren. Nach der mitochondrialen DNA waren die Vorfahren des Hundes vor 23 000 Jahren in Sibirien domestiziert worden. Nach den genetischen Daten haben sich die asiatische und amerikanische Hundepopulation dann vor 16 700 Jahren aufgespalten; sie hatten danach offenbar keinen Kontakt mehr miteinander. Die logische Folgerung: Vor 16 700 Jahren müssen die Hunde und ihre Besitzer Asien verlassen haben und nach Amerika eingewandert sein: In Booten per Insel-Hopping oder von Bucht zu Bucht an der Küste.

Der Columbia-River mündet dort in den Pazifik, wo einst das südliche Ende des kontinentalen Eispanzers lag. Wer bis hierhin die Küste herabpaddelte, könnte dem fischreichen Süßwasserstrom ins Landesinnere gefolgt sein. Auf ähnliche Weise haben sich die Einwanderer auf ihrem Weg nach Süden wahrscheinlich sukzessive alle Lebensräume des Kontinents erschlossen (siehe auch Fundorte weit im Osten, wie z. B. Cactus-Hill in Virginia).

Im US-Staat New Mexico wurden im White Sands Nationalpark versteinerte Fußspuren von Menschen gefunden, die vor 23 000 bis 21 000 Jahren über amerikanischen Boden gelaufen sind und wohl über zwei Jahrtausende hinweg dort vor Ort lebten. Entlang der Fußabdrücke fand man auffällige Schleifspuren, wohl Abdrücke von Stangenschleifen, im Fachjargon auch Travois genannt. Deren Einsatz ist bei amerikanischen Indigenen, aber auch bei eingeborenen Völkern aus anderen Gegenden der Welt, bis in die Neuzeit belegt. Die Schleifen bestehen aus zwei zu einem X oder V verbundenen Stangen, mit denen sich auch schwere Lasten transportieren ließen, indem man sie hinter sich her zog. Diese und weitere Funde sind ein Beweis dafür, dass die Menschen Amerika schon deutlich früher besiedelten, als lange vermutet wurde, und schon zu dieser Zeit bis nach Mittelamerika gelangt sind.

Dies deckt sich auch mit den Mutationsraten menschlicher DNA, nach denen die Vorfahren der Ureinwohner Amerikas möglicherweise schon vor 25 000 einwanderten. Von dieser Zeit an treten bei Indigenen immer wieder dieselben Haupttypen mitochondrialer DNA auf.

Mittel- und Südamerika

Womöglich waren Menschen sogar noch etwas früher nach Amerika eingewandert. Mutmaßliche Belege dafür kamen an mehreren Fundorten in Südamerika ans Licht, wie z. B. in Pedra Furada im Nordosten Brasiliens. Dort wurde Holzkohle aus sehr alten Feuern und Steinsplitter, die man als Werkzeuge interpretiert hat, entdeckt. Sie wurden auf 48 000 bis 32 000 Jahre vor heute datiert. Umstritten sind die in Vulkanasche versteinerten Fußspuren, die nahe der zentralmexikanischen Stadt Puebla gefunden wurden, für die ein Alter von 40 000 Jahren ermittelt wurde. In der Chiquihuite-Höhle in Zentralmexiko kamen Steinwerkzeuge zum Vorschein, die 32 000 bis 25 000 Jahre alt sein sollen.

Vom Felsüberhang Santa Elina im brasilianischen Bundesstaat Mato Grosso stammen knöcherne Schmuckstücke, deren Alter zwischen 28 700 und 26 500 Jahren liegt. Die drei Knochen stammen von ausgestorbenen Riesenfaultieren; sie wurden offenbar von Menschen durchlocht und poliert und als Anhänger getragen. Am gleichen Ort wurden gleichzeitig weitere Hinterlassenschaften des Menschen gefunden, wie z. B. eine große Menge an Steinwerkzeugen. Das hieße also, dass sich bereits vor weit mehr als 20 000 Jahren Menschen im Inneren Südamerikas aufhielten.

Im Chiribiquete-Tafelgebirge im Nordwesten des Amazonas-Beckens befindet sich die größte Fundstätte prähistorischer Felsmalereien Amerikas – bis zu 19 000 Jahre alt. An insgesamt 800 Orten wurden fast 75 000 Felszeichnungen auf einer Fläche von 1300 Quadratkilometern entdeckt, was auf eine große Bevölkerung hindeutet. Die mit Ocker gemalten Bilder sind zwischen einem Zentimeter und anderthalb Meter groß und zeigen Menschen, Tiere (u. a. das Riesenfaultier, Säbelzahntiger, Vögel), anthropomorphe Wesen, rätselhafte Symbole und geometrische Muster. Nach Erzählungen der hier (am Rio Caqueta) lebenden Uitoto-Indios entstanden die Gravuren zu einer Zeit, in der „der Sonnengott alle Bäume verbrannte, so dass überall nur Gras wuchs“. Es ist eine Beschreibung der Vegetationsform, die im Amazonas-Becken während und nach dem letzten eiszeitlichen Maximum, also vor gut 20 000 Jahren, vorherrschte.

Zwischen etwa 17 000 und 13 000 Jahren vor heute haben sich die südlichen Ureinwohner Amerikas rasch in regionale Populationen aufgeteilt, die über ganz Mittel- und Südamerika verteilt lebten. Die Geschwindigkeit, mit der sich die Untergruppen bildeten, und der Zeitpunkt ihrer Aufspaltung lassen sich mit einer Ausbreitung der Menschen zu Wasser deutlich besser erklären als über Landwege. Viele vergleichbare Fundstätten entlang der südamerikanischen Pazifik-Küste aus der Zeit zwischen 15 000 und 12 500 v. h. stützen die Schlussfolgerungen.

Die Siedlung Monte Verde im Süden Chiles (etwa 15 Kilometer von einer Inlandsbucht entfernt) wird auf ein Alter von 18 500 bis 14 700 zurückdatiert. Menschen lebten hier nachweislich in fellbedeckten Zelten und ernährten sich keineswegs nur von Großtieren, sondern auch von Meeresfrüchten und wilden Kartoffeln. Die Archäologen fanden hölzerne Werkzeuge, Steinschleudern, Reste vieler essbarer Pflanzen aus unterschiedlichsten Jahreszeiten und sogar den Abdruck eines Backenzahns. (Die Menschen konsumierten auch Meerespflanzen, die noch heute von der örtlichen Bevölkerung als Heilmittel verwendet werden.)

Alternative Szenarien

Einige Anthropologen meinen, dass manche heutigen Bewohner Südamerikas und des südlichen Nordamerikas vielleicht ganz verschiedene Ursprünge haben: Sibirien, China, vielleicht auch Südostasien. So glauben brasilianische Wissenschaftler, eine genetische Verwandtschaft mit ost- und südostasiatischen Völkern entdeckt zu haben. Und eine genetische Untersuchung von 2019 in Monte Verde deutet auf Bewohner heutiger japanischer Inseln als Vorfahren hin. Das würde sich insgesamt jedenfalls auch mit Messungen an mehr als 1500 Schädeln aus Amerika, Asien und Ozeanien decken.

Atlantik-Route

Die Archäologin Niede Guidon glaubt, dass die ersten Bewohner Südamerikas mit einfachen Booten über den Atlantik kamen. Der Weg von Westafrika war auf jeden Fall der kürzeste und leichter zu bewältigen als heute, da der Meeresspiegel 100 Meter tiefer lag. Günstige Winde und die Strömung könnten einige Menschen also, zufällig oder geplant, an die gegenüberliegende Küste gebracht haben. Eine uralte Bootszeichnung mitten im Urwald bekäme so eine neue Dimension.

Der Benguela-Strom ist wie ein gigantisches Förderband, das von Westafrika nach Südamerika läuft. Unterstützt wird diese natürliche Ost-West-Bewegung durch die Passat-Winde. Die Menschen brauchten nur den Nordost-Passat zu nutzen, um sich mit Booten an die Küste Amerikas treiben zu lassen. Vor wenigen Jahrzehnten gerieten Fischer vor Afrika in einen Sturm. Drei Wochen später gingen zwei von ihnen nach einer wahren Odyssee in Südamerika an Land. Überquerungen des atlantischen Ozeans könnten also auch Zufallsprodukte gewesen sein.

Es ist Spekulation, doch die Afrika-Route scheint plausibel. Ein 10 000 Jahre alter Schädel, der in der Serra da Capivara in Brasilien gefunden wurde, hat typische afrikanische Merkmale. Hier tauchten auch Steinwerkzeuge auf, deren Alter auf 24 000 Jahre bestimmt wurde. Diese Relikte sowie in der Nähe gefundene menschliche Fäkalien mit dem Erreger einer afrikanischen Tropenkrankheit sprechen nach Ansicht einiger Archäologen dafür, dass Menschen von Afrika über den Atlantik nach Südamerika kamen. (Vor über 30 000 Jahren soll in Afrika auch eine große Dürre geherrscht haben.) Zudem ist die Ähnlichkeit beim Vergleich von Felsbildern in der Sahara und in Südamerika auf den ersten Blick frappierend. Der entscheidende Beweis fehlt aber noch, daher bleibt die These von der Atlantik-Überquerung höchst umstritten.

Pazifik-Route

Wann genau die Menschen ins Amazonas-Gebiet kamen, ist nicht genau bekannt. Schätzungen reichen von vor 27 000 bis vor 13 000 Jahren. Als sehr wahrscheinlich gilt inzwischen, dass die Neuankömmlinge spätestens vor 23 000 bis 21 000 Jahren den Amazonas erreichten. Bei einer Handvoll indigener Gruppen aus dem Amazonas-Hochland gibt es Hinweise (DNA-Abschnitte), die auf eine Verwandtschaft mit den Ureinwohnern Australiens, Neuguineas und der Andamanen hinweisen. Die Verwandtschaft ist zwar schwach ausgeprägt, aber eindeutig vorhanden. Spuren desselben genetischen Signals finden sich auch in Proben menschlicher Überreste (40 000 Jahre alt) aus der Tianyuan-Höhle in Peking.

In einer Höhle im brasilianischen Bundesstaat Minas Gerais wurde bei Belo Horizonte das älteste in Südamerika gefundene Skelett entdeckt: Luzia, 11 300 Jahre alt. Es unterscheidet sich morphologisch von allen Skeletten heutigen Urbevölkerungen Amerikas und hat große Ähnlichkeit mit heutigen Afrikanern (Ostafrikanern) und australischen Aborigines – ein wenig von beiden Volksgruppen. Markante Merkmale am Schädel sind die Größe der Augenhöhlen oder die Breite der Nase. Auch der älteste Schädelfund auf Feuerland (ganz im Süden Südamerikas), 9000 Jahre alt, weist Ähnlichkeiten mit solchen der australischen Ureinwohner auf. Ebenso findet man an Schädeln verstorbener Feuerländer neben klassisch-mongoliden Zügen, z. B. flaches Profil, auch ungewöhnliche Charakteristika wie auffällig breite Augenwülste.

Forscher gehen davon aus, dass sich eine uralte Population des Homo sapiens offensichtlich von Ostafrika über ganz Asien und bis nach Australien verbreitet hat. Ihre Gene sind in der modernen Bevölkerung der Pazifikregion und in einigen Ethnien im Amazonasgebiet nachweisbar. Es sieht so aus, als ob einige Gruppen von Ostasien aus nach Südamerika übergesetzt sind, was voraussetzen würde, dass sie bereits über seetüchtige Boote verfügten. Dafür spricht, dass Menschen ja auch schon vor 45 000 Jahren den Weg von Asien nach Australien zurückgelegt haben. In Südamerika haben sie sich später womöglich mit den Einwanderern vermischt, die sich von Norden aus über die Küstenroute ausbreiteten.

[Eine Überquerung des Pazifiks aus Richtung Neuguinea und Australien mit Booten scheint dagegen ausgeschlossen. Dafür gibt es keinerlei Anzeichen. Seefahrende Polynesier setzten erst vor gut 800 Jahren erstmals Fuß auf den amerikanischen Kontinent und scheinen dann auch im Regenwald Amazoniens einen genetischen Abdruck hinterlassen zu haben.]

Fazit

Wann, wo und wie genau die (erste) Besiedlung der Neuen Welt stattgefunden hat und sich die Menschen auf dem amerikanischen Kontinent ausbreiteten, ist bis heute also nicht eindeutig geklärt. Das Bild, das sich aus den derzeitigen Erkenntnissen ergibt, ist sehr komplex und manchmal sehr widersprüchlich. Die meisten Wissenschaftler sind überzeugt, dass erste Menschen sich schon vor 40 000 bis 30 000 Jahren an der Westküste Amerikas aufhielten. Nach den neuesten Funden und Gendaten muss man wohl von verschiedenen Einwanderungen ausgehen, die sich über einen Zeitraum von 40 000 bis 10 000 v. h. erstreckten. Dabei spielten wohl die Einwanderungswellen per Boot entlang der amerikanischen Pazifikküste eine bedeutende Rolle. Umstritten bleibt aber in diesem Zusammenhang auch die Frage, ob es sich tatsächlich um Migrationswellen größerer Populationen oder eher um ein allmähliches Einsickern kleinerer Gruppen handelte.

Insgesamt dürfte die Populationsdichte in der Frühphase der Besiedlung Amerikas sehr gering gewesen sein. Erst mit den klimatischen Veränderungen nach der letzten Eiszeit erlebte die Menschheit in Amerika einen Aufschwung – und mit ihr die Tierwelt womöglich eine Katastrophe. Denn während vor 23 000 bis 21 000 Jahren noch die eiszeitliche Megafauna dominierte, kam es in späteren Jahrtausenden zu einem massenhaften Aussterben der großen eiszeitlichen Säugetiere, wie z. B. dem gewaltigen Amerikanischen Mastodon – das seit 10 Millionen Jahren zwischen Alaska und Mexiko lebte – und den Riesenfaultieren, aber auch allen Pferden. Das könnte zum Teil auf das Konto der Clovis-Jäger gegangen sein.

Analysen von Jagdverhalten und Bewaffnung lassen allerdings ein massives Artensterben durch Überjagung nicht plausibel erscheinen, wenden Kritiker ein. Denn auch die Umwelt veränderte sich: Es wurde im Laufe der Jahrtausende immer trockener. Und es gibt noch einen weiteren Gedanken: Viren und Bakterien, die die Jäger mitbrachten, könnten die Tierwelt dezimiert haben. Amerikanischer Löwe, Riesengürteltier oder das Amerikanische Mastodon, aber auch kleinere Spezies, hätten demnach zu wenig Zeit gehabt, sich gegen die Erreger zu immunisieren. (In den Beinknochen von 59 von 113 Mastodonten wurden Tuberkulose-Symptome nachgewiesen.) Vermutlich war es eine Verquickung von raschem Klimawandel mit Anpassungsstress, Bejagung und Schwächung durch Krankheiten, die schließlich auch zum Aussterben des größten Teils der Megafauna (11 600 v. h. auch im Amazonasgebiet) führte.

REM

Entwicklung der Milchstraße

Die Wissenschaftler nehmen an, dass zunächst Dichteschwankungen der Dunklen Materie die ersten gravitativ gebundenen Strukturen im Universum entstehen ließen. In den sogenannten „Dunklen Halos“ sammelte sich das Gas der „normalen“ Materie und entwickelte sich zu Brutstätten der Sternentstehung. Im Laufe der Zeit entstanden auf diese Weise kleine Protogalaxien.

Entstehung

Wir sind aber noch weit entfernt davon, vollständig zu wissen, wie die Milchstraße entstand und sich entwickelte. Zunächst lag wohl vor über 13 Milliarden Jahren eine formlose Gas- und Staubwolke vor. Nach derzeitigem Wissensstand entsteht daraus eine Spiralgalaxie, wenn das Gas sich zuerst durch Rotation stabilisiert, bevor Gasklumpen zu einzelnen Sternen kontrahieren. Im Laufe der Zeit entwickelte sich so zunächst eine Protogalaxie mit metallarmen Sternen, die schnell ihren Brennstoff verbrauchten und explodierten. Aus dem ausgestoßenen Material ging die nächste Generation von zunehmend metallreicheren Sternen hervor.

Ursprünglich war das frühe Milchstraßensystem von vielen kleineren Begleitern und einer großen Menge unverbrauchtem Gas umgeben. Immer wieder wurden die Protogalaxien, Zwerggalaxien sowie Sternhaufen gravitativ angezogen und kamen mit der sich entwickelnden Milchstraße in Kontakt.

Nach heutigen Erkenntnissen waren es im Laufe der Jahrmilliarden mehrere 100, wenn nicht sogar rund eine Million galaktischer Bausteine, welche zur heutigen Zusammensetzung der Galaxie beitrugen. Ihr Gas löste immer wieder neue Sternentstehungen aus. So wuchs die Milchstraße in einem komplizierten Zusammenspiel von Gravitation und Sternentstehung zu einer großen Spiralgalaxie heran. Nur wenige der galaktischen Objekte haben fossile Spuren hinterlassen, z. B. in Form von Sternbändern (Sternströmen), die sich vor allem in den Randgebieten unserer Galaxis (im Halo) erstrecken. Die meisten der aufgenommenen Sterne haben sich schon so sehr mit den Sternen der Milchstraße vermischt, dass wir sie wohl nicht mehr aufspüren können.

Die Asymmetrie der Milchstraße ist ein weiteres Indiz dafür, dass die Milchstraße aus der Vereinigung kleinerer Einheiten hervorging und durch fortwährendes Einsammeln von intergalaktischem Gas wuchs.

Frühe Entwicklung

In den letzten 10 Milliarden Jahren hat die Milchstraße bis zu fünf größere Verschmelzungen durchgemacht, bevor sie zu der heutigen Spiralgalaxie wurde. Insbesondere die heftige Kollision in ihrer Frühzeit (vor 9 bis 10 Milliarden Jahren) mit einer anderen Galaxie, Gaia-Enceladus (benannt nach dem Sohn der griechischen Göttin Gaia – einem „Giganten“, den sie mit dem Blut des Himmelsgottes Uranus gezeugt hatte), hat sie nachhaltig geprägt. Die Zwerggalaxie war etwa ein Viertel so groß wie die Milchstraße selbst.

Bei der Kollision wurde Gaia-Enceladus auseinandergerissen und anschließend von der Milchstraße „verspeist„. Jede Menge frisches Wasserstoff-Gas und damit Material für neue Sterne gelangte in die junge Galaxie. Es kam zu einem gewaltigen Starburst (Anstieg der Sternentstehung). Computersimulationen deuten darauf hin, dass der Crash die ursprüngliche galaktische Scheibe so stark erschüttert hat, dass sich auch viele Sterne der einverleibten Fremdgalaxie dort angesiedelt haben. Somit hat die Kollision nicht nur den galaktischen Halo mit Sternen aufgefüllt, sondern wohl auch die Bildung der dicken Scheibe angeregt. Spuren der Kollision zeigen sich noch heute, weil sich ihre Sterne (Gaia-Sausage) immer noch anders bewegen als die Sterne der Milchstraße: ungewöhnlich schnell und in die entgegengesetzte Richtung als der Rest.

Wenig später muss es zu einer weiteren Kollision mit einer Zwerggalaxie („Sequoia„) gekommen sein. Viele Wissenschaftler halten es vorläufig für unentschieden, ob Sequoia zusätzlich invadierte oder ein Teil von Gaia-Enceladus war. Einige deuten die beiden Ereignisse als tatsächlich zwei separate, aber vielleicht gemeinsam abgelaufene Kollisionen mit der Milchstraße. Jedenfalls wurde die galaktische Scheibe gewaltig aufgemischt.

Im Lauf der folgenden zwei Milliarden Jahre platteten sich Gas und Sterne aus den dicken Zentralbereichen zu einer dichteren, dünnen Scheibe ab. Die Sternentstehung nahm Fahrt auf: Es bildeten sich spiralförmige Dichtewellen in der galaktischen Scheibe, die nur langsam ihre Position änderten. In diese Bereiche strömten vergleichsweise schnell Gaswolken, die um das Zentrum der Galaxie rotierten. Die Materie verdichtete sich in ihnen – es bildeten sich neue Sterne, die möglicherweise die leuchtenden Spiralarme formten. Nachdem sich die jugendlichen Turbulenzen der Milchstraße beruhigt hatten, wurde ein Gleichgewichtszustand erreicht, bei dem die Entstehung neuer Sterne recht stetig abläuft. Die Phase der stetigen Sternentstehung hält im Großen und Ganzen bis heute an.

Sagittarius

Vor etwa sechs Milliarden Jahren wurde eine weitere Zwerggalaxie, Sagittarius, eingefangen und störte das Gleichgewicht in unserer Galaxie. Bei ihren Umläufen streifte die Zwerggalaxie alle paar hundert Millionen Jahre die Milchstraße. Wirklich kollidiert sind dabei freilich nur Gas- und Staubmassen. Aber jedes Mal riss die Milchstraße eine Spur von Sternen aus der Zwerggalaxie heraus. Die daraus resultierenden Sternströme zogen sich durch den Halo und wanden sich zweimal um die galaktische Scheibe herum. Mit der Zeit vermischten sie sich mit den übrigen Sternen im äußeren Bereich der Milchstraße. Heute verrät nur noch ihre chemische Zusammensetzung die Herkunft.

Die Kollision mit Sagittarius brachte die Gas- und Staubmassen unserer Galaxie durcheinander und wurde so zum Auslöser einer interstellaren Verjüngungskur. Vielleicht wurde erst dadurch die Entwicklung der Spiralarme ausgelöst. Jedenfalls hat die Kollision Einflüsse auf die Bildung der flachen äußeren Scheibe gehabt, aber auch auf die zentrale Balkenstruktur der Milchstraße.

Es muss mindestens drei Karambolagen zwischen unserer Milchstraße und Sagittarius gegeben haben: Vor etwa 5,7 Milliarden Jahren, dann wieder vor etwa 1,9 Milliarden Jahren und zuletzt vor etwa einer Milliarde Jahren durchstieß die Zwerggalaxie die galaktische Ebene. Jede Passage löste eine Phase von überdurchschnittlicher Sternbildung aus. So führte auch die letzte Kollision zu Verwerfungen in der Milchstraße; die durch sie initiierten Sternbildungen halten bis heute an.

Seit Milliarden von Jahren umkreist Sagittarius inzwischen unsere Heimatgalaxie in einem polaren Orbit – bis zu 50 000 Lichtjahre vom galaktischen Zentrum entfernt. Ohne die periodischen Kollisionen mit ihr würde die Milchstraße gegenwärtig ganz anders aussehen und hätte viel weniger Gestirne. Aus der Länge des Sagittarius-Schweifs können wir schließen, dass dieser seit zwei bis drei Milliarden Jahren besteht. Die Zwerggalaxie ist allerdings heute nur noch ein Schatten seiner selbst und kaum mehr als zusammenhängendes Objekt zu erkennen. In nicht allzu ferner Zukunft wird sie ganz zerrissen sein.

Jüngere Entwicklung der Milchstraße

In den letzten fünf Milliarden Jahren gab es ähnliche Zusammenstöße mit anderen Objekten, deren Sternströme wohl noch die Milchstraße umgeben. Erst eine geringe Anzahl von ihnen wurde bislang entdeckt. Oft sind sie zu leuchtschwach, als dass man sie mit den derzeit verfügbaren Mitteln beobachten könnte. Jedenfalls ist die Milchstraße immer noch von kleineren Satellitengalaxien und Sternhaufen umgeben, an denen ihre Gezeitenkräfte zerren und denen sie Sterne entreißt, wenn sie sich ihr zu sehr nähern. Vermutlich stellen sie aber nur einen winzigen Bruchteil all jener Objekte dar, die in unserer galaktischen Nachbarschaft jemals existiert haben.

Die Prozesse der Sternentstehung, der Kernsynthese und der Sternexplosionen hatten ihr Maximum vor drei bis zwei Milliarden Jahren. Sie laufen heute in der Milchstraße mit geringerer Häufigkeit ab, weil der Gasvorrat langsam immer mehr aufgebraucht wird. Und vermutlich hat unsere Galaxie bereits einen großen Teil des frischen Gases aus ihrer Umgebung aufgesogen.

So beträgt die derzeitige Sternentstehungsrate 1,65 bis 1,9 Sonnenmassen jährlich. Das ist erstaunlich niedrig, vor allem, wenn man bedenkt, dass es immerhin noch rund zehn Milliarden Sonnenmassen an Gas in der Milchstraße gibt. (Astronomen geben die Sternentstehungsrate als Masse an, weil es Sterne sehr unterschiedlicher Größe und Masse gibt – von etwa 0,1 bis über 100 Sonnenmassen.)

Rund 10% des interstellaren Gases befindet sich außerhalb der Scheibe und bewegt sich mit Geschwindigkeiten von bis zu 400 km/s weit schneller, als es der Rotation der Galaxis entspricht. Die Dynamik dieser Hochgeschwindigkeitswolken verrät, dass unser Milchstraßensystem riesige Mengen Gas ausstößt und anschließend wieder anzieht. Auf diese Weise strömt immer noch permanent sehr viel Gas in unser Sternsystem herein.

Unsere Milchstraße ist also noch keineswegs ausgereift, sondern entwickelt sich unablässig weiter. Innerhalb der kommenden zehn Milliarden Jahre werden weitere Zwerggalaxien mit ihr kollidieren und neue Sternströme bilden, ähnlich jenen, die wir jetzt im Halo sehen. In selteneren Fällen, wie beispielsweise bei der Großen Magellanschen Wolke, verlieren die Satelliten bislang nur ihr Gas, noch nicht ihre Sterne. Der sichtbare Teil der Milchstraße dehnt sich weiter aus, weil sich auch in ihren Außenbezirken noch Sterne bilden und sich neue Sterne in der galaktischen Scheibe allmählich von ihren Entstehungsorten entfernen. Auf diese Weise wird unsere Spiralgalaxie um rund 500 m/s wachsen und in drei Milliarden Jahren wohl etwa 5% größer sein als heute.

REM

Struktur der Milchstraße

Schon vor 2500 Jahren spekulierten Philosophen wie Demokrit, dass die am nächtlichen Himmel prangende Milchstraße aus Myriaden von Sternen bestehe – was Galileo Galilei 1610 mit einem der ersten Fernrohre bestätigen konnte. Heute gehen wir davon aus, dass die Milchstraße rund 300 Milliarden Sterne (einschließlich der Braunen Zwerge) enthält. Ihre Gesamtmasse, zu der auch Gas- und Staubwolken sowie der Halo aus Dunkler Materie gezählt wird, beträgt schätzungsweise ein bis zwei Billionen Sonnenmassen, wobei die Dunkle Materie den überwiegenden Teil ausmacht.

Die Milchstraße ist eine ziemlich durchschnittliche Spiralgalaxie. Nach unseren bisherigen Erkenntnissen ist sie gekennzeichnet durch eine stark abgeplattete und reich mit Wasserstoffgas und Staub angefüllte Scheibe mit einer zentralen Ausbeulung, aus der Spiralarme herausragen. Ihre Struktur wird von der Schwerkraft bestimmt, welche mit dem Drehimpuls der in der Galaxis enthaltenen Materie ein Gleichgewicht bildet.

Aufgrund unserer Lage im Milchstraßensystem ist es gar nicht so einfach, die komplexe Struktur unserer Galaxis zu ermitteln. Weil wir Teil der Milchstraße sind, haben wir zwar einen hervorragenden Nahblick auf benachbarte Spiralarme und einzelne Sterne. Doch genau diese Ansicht von innen macht es sehr schwierig, die Struktur im Ganzen zu erfassen. Die Astronomen unterscheiden heute grob vier mehr oder weniger deutlich gegeneinander abgegrenzte Gebiete: Zentrale Verdickung (Bulge), dünne Scheibe, dicke Scheibe, Halo.

Bulge

Die zentrale Teil der Milchstraße, der Bulge (von engl.: Wulst, Ausbuchtung) hat die Gestalt einer abgeplatteten Ellipse, die das Schwarze Loch im galaktischen Zentrum umhüllt. Gemeinsam mit einer vergleichsweise dichten, balkenförmigen Sternansammlung bildet er eine zusammenhängende Struktur. Der Bulge spannt sich von dem inneren Balken auf eine maximale Dicke bis zu 15 000 Lichtjahren, bei einem Durchmesser von ungefähr 10 000 Lichtjahren. Neueste Modelle deuten darauf hin, dass ein Großteil seines Materials ursprünglich aus der Scheibe stammt. Wenn auch im Bulge sehr alte, massearme Sterne überwiegen, so entstehen doch auch heute noch neue Sterne.

Scheibe

Die flache, rotierende Scheibe hat einen Durchmesser von rund 100 000 Lichtjahren (oder 940 Billiarden Kilometern) und eine Dicke von 3000 Lichtjahren. Sie liegt nicht exakt in einer Ebene, sondern ist s-förmig gewellt: Ab einer Entfernung von 25 000 Lichtjahren vom Zentrum biegen sich die Außenbereiche auf der einen Seite leicht nach oben und auf der anderen nach unten. Es liegt nahe, dass die Verbiegung sehr wahrscheinlich von einer früheren Kollision mit einer nahen Zwerggalaxie (möglicherweise der Sagittarius-Galaxie; s. u.) ausgelöst wurde. Andere Möglichkeiten sind eine Einwirkung der Dunklen Materie oder intergalaktischer Wolken.

Die Verbiegung stellt nicht die einzige Asymmetrie in der Form der Milchstraße dar. Besonders ausgeprägt ist die einseitige Verdickung der äußeren Gasscheibe. In der Nähe der Sonne hat sie z. B. nur ein Sechstel der Mächtigkeit der äußeren Bezirke. Diese starke Asymmetrie ist instabil und sollte sich eigentlich mit der Zeit ausgleichen.

Die Sterne rotieren mit einer Geschwindigkeit von im Mittel 200 bis 250 km/s um das Zentrum der Galaxie. Jeder Stern folgt wie die Sonne seiner eigenen kreis- oder ellipsenförmigen Bahn, auf der er durch die Gravitation gehalten wird. In der Scheibe lassen sich eine sogenannte dünne Scheibe von etwa 2000 Lichtjahren Stärke und eine bis zu 3000 Lichtjahre starke dicke Scheibe unterscheiden. Die Sterne in der dicken Scheibe bestehen überwiegend aus Sternen, die sich bereits in der Jugendzeit der Galaxis gebildet haben. In der dünnen Scheibe finden sich überwiegend jüngere Sterne (wie die Sonne), reich an schwereren Elementen, sowie zahlreiche Gas- und Staubwolken. Sie machen zwar nur 5% der galaktischen Gesamtmasse aus, senden aber fast 90% des Lichts der Galaxie aus.

Die Gas- und Staubwolken machen bis zu 20% der sichtbaren Gesamtmasse aus. Mit Hunderten von Lichtjahren Ausdehnung und Ansammlungen bis zu 100 000 Sonnenmassen sind sie die größten und massereichsten Objekte innerhalb der Milchstraße. Die Molekülwolken bewegen sich, wie die Sterne, überwiegend auf fast kreisförmigen Bahnen um das galaktische Zentrum. Sie sind die eigentlichen Brutstätten neuer Sterne und stellen noch viele Milliarden Jahre den Rohstoff für sie bereit.

Da die Sterne in der dünnen Scheibe, wie etwa unsere Sonne, eine geringe Vertikalgeschwindigkeit haben, bleiben sie zumeist in der galaktischen Ebene und schwanken lediglich bis zu 1000 Lichtjahre beiderseits des galaktischen Äquators. Die Sterne der dicken Scheibe weisen etwas höhere Vertikalgeschwindigkeiten auf (sie schwanken um 3000 Lichtjahre um den galaktischen Äquator) und Halosterne noch höhere. (Von 1000 Sternen in unserer Nachbarschaft gehören etwa 989 zur dünnen Scheibe, 10 zur dicken Scheibe und ein Stern zum Halo.)

Die Dynamik der Milchstraße lässt sich nur mit der Annahme einer großen anziehenden Masse wie der Dunklen Materie erklären. Diese erstreckt sich weit über den stellaren Halo (s. u.) hinaus und muss annähernd sphärisch (kugelförmig) verteilt sein. Die Wissenschaftler machen die Dunkle Materie dafür verantwortlich, dass alle Sterne etwa gleich schnell um das Zentrum der Scheibe rotieren, egal, ob sie sich an deren Rand befinden oder weiter innen. Ihre Schwerkraft erhöht die Rotationsgeschwindigkeit der äußeren Bezirke der Scheibe, die den Gravitationsgesetzen zufolge mit steigender Entfernung vom Zentrum eigentlich abnehmen müsste.

Denn lange hieß es, dass die Dichte der Dunklen Materie im Zentrum am größten sei und mit dem Quadrat des Abstands vom Zentrum abfalle. Die Bahngeschwindigkeiten der Sterne passen aber besser zu einem Modell, demzufolge die Dichte der Dunklen Materie zum Zentrum der Milchstraße hin nicht stetig ansteigt, sondern sich abflacht. Das lässt jedoch auch darauf schließen, dass die Milchstraße in ihrem Zentrum weniger Dunkle Materie enthält als bislang angenommen, dementsprechend auch insgesamt auf weniger Masse kommt.

Spiralarme

Die Spiralmuster in der Milchstraßen-Scheibe sind ein Dichtewellenphänomen: Unabhängig von der Rotation der Sterne laufen sich selbst erhaltene Dichtewellen durch Sterne, Gas und Staub der Scheibe. Sie bewegen sich in der gleichen Richtung wie die Sterne um das Zentrum der Galaxie, allerdings mit geringerer Geschwindigkeit. So kommt es im normalen Verlauf dazu, dass Sterne bzw. Gas- und Staubwolken eine Dichtewelle „einholen„. Sie türmen sich dann regelrecht hinter einem Spiralarm auf und werden dabei – wie in einem kosmischen Verkehrsstau – zusammengedrückt.

Alle paar hundert Millionen Jahre wird alles in der Galaxie von diesem Prozess des Zusammendrückens erfasst. Das Gas verdichtet sich vorübergehend und es entstehen zahlreiche neue Sterne mit hoher Oberflächentemperatur, die sehr hell leuchten („blaue Sonnen„). Im Wellenmaximum ist die Sternentstehungsaktivität am höchsten. Die Wellenfront ist damit die Region größter Sternendichte und am hellsten leuchtender Gasnebel, die entlang der Hauptachsen der Umlaufbahnen anzutreffen sind. Deshalb zeigen sich die Spiralarme auch so deutlich in der Scheibe.

Die Materiedichte ist in einem Spiralarm insgesamt aber nur unwesentlich höher als im Rest der galaktischen Scheibe. Der große optische Unterschied beruht also nicht so sehr auf der Dichte der Materie, sondern vielmehr darauf, was in der Galaxis mit dem Material geschieht.

[Mehr als ein Dutzend langer, fadenförmiger Gaswolken (99% Gas, 1% Staub), die über die Spiralarme der Galaxis verstreut sind, könnten als Geburtsstätten für die vielen neuen Sterne dienen. Ihre Herkunft ist noch unklar. Möglicherweise werden sie durch Magnetfelder zusammengehalten.

Die Ausrichtung des Magnetfelds, das überall in der Milchstraße die interstellare Materie durchsetzt, stimmt vermutlich mit demjenigen der Spiralarme überein. Es wird wohl durch die gravitativen Kräfte in den Spiralarmen komprimiert und in die gleiche Richtung wie diese ausgerichtet.]

Wie von einem Wasserstrudel werden die Dichtewellen von der Drehung der Scheibe um das galaktische Zentrum mitgerissen, gekrümmt und zur Mitte hin immer stärker aufgewickelt. Es dauert 220 bis 250 Millionen Jahre, bis sich die Spiralarme einmal vollständig um das Zentrum der Milchstraße gedreht haben. Bisher geschah das etwa fünfzigmal. Bisher weiß noch niemand genau, wie viele Spiralarme die Milchstraße überhaupt hat. Die Fachleute gehen von vier großen Spiralarmen aus: Sagittarius-Carina-Arm, Scutum-Centaurus-Arm, Norma-Arm und Perseus-Arm. Was wir an klaren mondlosen Nächten als silbernes Band am Himmel erkennen, sind die anderen Spiralarme der Milchstraße. Von unserem eigenen Arm sehen wir die Sterne einzeln um uns herum.

Aber die Spiralstruktur unserer Galaxis ist keine statische, sondern eine dynamische Eigenschaft. Sie verschwindet nach ein paar Umläufen wieder und tritt mit einem anderen Muster hervor. Die Spiralarme sind also nicht dauerhaft, sondern nur zeitweilige Erhöhungen der Materiedichte, in denen Sterne und Molekülwolken dichter zusammenrücken.

Da die galaktische Scheibe ein dynamisches System ist, reagiert sie auch auf verschiedene von außen einwirkende Kräfte. So zerrt die Gravitation benachbarter Zwerggalaxien und Kugelsternhaufen ständig an der Scheibe, während diese Objekte die Galaxis umrunden, an ihr vorbeifliegen oder sie bisweilen sogar durchstoßen. Diese Störungen hinterlassen Spuren und können in der Scheibe z. B. ein Wellenmuster anregen. Die mehrfachen Kollisionen mit der Zwerggalaxie Sagittarius (s. u.) könnten die galaktischen Spiralarme der Milchstraße nicht nur geprägt, sondern ihre Entstehung sogar angestoßen haben.

Eine sehr dünne, wellenförmige Kette aus Gas und Sternentstehungsgebieten, die 9000 Lichtjahre lang und 400 Lichtjahre breit ist, ragt bis zu 500 Lichtjahre weit aus der Milchstraßenebene hinaus. Diese gigantische Struktur, bekannt als „Radcliff-Welle„, könnte mit einer Masse von über drei Millionen Sonnen die größte zusammenhängende Struktur sein, die je in der Milchstraße aufgefunden wurde. Sie gehört zum Orion-Spiralarm, einem kleinen Nebenarm, und macht etwa 40% von dessen Länge und 20% von dessen Breite aus. Die Form der Welle könnte auf die Wechselwirkung unserer Galaxis mit einem besonders massereichen Objekt (z. B. der Kollision mit einer Zwerggalaxie) zurückgehen. Auch der Einfall einer dichten Wolke Dunkler Materie vor 30 bis 50 Millionen Jahren ist als Ursache denkbar.

Unsere Sonne bewegt sich immer wieder durch diese Kette hindurch und ist vielleicht sogar darin entstanden. Sie dürfte in 13 Millionen Jahren die Welle wieder passieren. Das letzte Mal war das laut Berechnungen der Forscher vor 14 Millionen Jahren der Fall.

Halo

Die leuchtende Scheibe der Milchstraße schwebt nicht isoliert im Raum. Zusammen mit dem Bulge ist sie in den sphärischen stellaren Halo eingehüllt. Er hat einen Durchmesser von etwa 200 000 Lichtjahren und enthält kaum Staub, aber isolierte einzelne Sterne sowie Kugelsternhaufen. Die Einzelsterne stammen zumindest teilweise aus den Überresten kleinerer Sternsysteme, die vor Jahrmilliarden mit unserer Galaxis zusammenstießen und/oder durch Gezeitenkräfte zerrissen wurden. Die Komponenten des stellaren Halo kreisen wie die galaktische Scheibe um das galaktische Zentrum, allerdings viel langsamer (10 bis 30 km/s).

Der stellare Halo ist kein einheitliches Gebilde. Der innere Teil entstand vermutlich zuerst, denn seine Sterne enthalten dreimal so viele schwere Elemente wie die Sterne des äußeren Teils. Sie stammen vermutlich von massereichen Galaxien, die gleichsinnig mit der Milchstraße rotierten und von ihr verschluckt wurden. Später gerieten dann kleinere Sternsysteme, die sich in die entgegengesetzte Richtung drehten, in den Einflussbereich unserer Heimatgalaxie und wurden von deren Gezeitenkräften zerrissen. Als Folge verteilten sich ihre Sterne weiträumig und sammelten sich im äußeren Teil des stellaren Halo.

In der gesamten Milchstraße haben die Wissenschaftler inzwischen 152 Kugelsternhaufen nachgewiesen, die meisten im stellaren Halo. Noch bis zu 50 werden hinter galaktischem Gas und Staub oder im Bulge vermutet. Kugelsternhaufen sind kleiner als 100 Lichtjahre im Durchmesser und beherbergen typischerweise meist mehrere hunderttausend meist sehr alter Sterne. Es sind aber nicht nur Überbleibsel aus dem frühen Universum. Kugelsternhaufen haben sich auch immer wieder auf verschiedenen Wegen gebildet, als ganze Objekte oder durch Zusammenballung von kleineren Einheiten – und tun dies bis heute. Daher können sie sehr uneinheitlich hinsichtlich ihrer inneren Eigenschaften (Masse, Zusammensetzung, Alter und Dichte) sein.

Die dicht bevölkerten Kugelsternhaufen liegen in sehr großer Entfernung im stellaren Halo sphärisch um die Milchstraße verteilt – typischerweise in einem Abstand von etwa 30 000 Lichtjahren zueinander. Dabei umkreisen sie das galaktische Zentrum auf Bahnen, die in allen möglichen Winkeln zur Scheibe stehen und diese auch häufig durchstoßen. Wegen ihrer starken Bindung durch innere gravitative Kräfte sind die Kugelsternhaufen sehr langlebig. Gleichwohl existieren sie nicht ewig. Sie lösen sich als Folge von Störungen der inneren Stabilität (z. B. Gezeitenkräfte) irgendwann auf – meist lange bevor ihre Sterne verlöschen.

Das Ganze wird von einem allenfalls langsam rotierenden galaktischen Halo komplett eingehüllt, einer düsteren sphärischen, leicht abgeflachten Zone, die relativ wenige, alte Sterne – nur 10% von ihnen sind jünger als 10 Milliarden Jahre – und Kugelsternhaufen enthält, aber wohl neben ionisierten Gasen viel Dunkle Materie. Die fernen Sterne verraten, dass der galaktische Halo bis fast zur 2,5 Millionen Lichtjahre entfernten Andromeda-Galaxie reicht. Beide Galaxien sind also so groß, dass es zwischen ihnen fast keinen freien Raum mehr gibt.

Aus der Milchstraße hinaus

Sterne können der Milchstraße entfliehen. Wegen ihren enormen Massen müssen sie aber über 400 km/s schnell sein, mehr als doppelt so schnell wie die Sonne ums Zentrum der Milchstraße wandert. Für diese extrem seltenen Sterne wurde der Begriff „Hyperschnellläufer“ geprägt. Sie könnten einst Teil eines Doppelsternsystems gewesen sein. Immerhin sind mehr als die Hälfte der Sterne in unserer Galaxis Teil eines Doppelsternsystems. Irgendwann ist einer der Partner in einer Supernova explodiert oder wurde vom zentralen Schwarzen Loch zerrissen, was den zurückgebliebenen Stern auf Wanderschaft schickte. Insgesamt sollte es in der Milchstraße ungefähr 10 000 solcher Raser geben, schätzen die Forscher. (Einige Schnellläufer scheinen aus der Großen Magellanschen Wolke zu stammen, die sich mit 380 km/s relativ zur Milchstraße bewegt.) Etwa die Hälfte von ihnen sei so schnell unterwegs, dass sie aus unserer Galaxie letztlich wohl entkommen werden.

Mit Geschwindigkeiten von rund 1000 km/s entströmen der inneren Milchstraße gewaltige Mengen an energiereichen geladenen Teilchen. Sie stammen von unzähligen Sternexplosionen und -geburten, die in den vergangenen 100 Millionen Jahren im Herzen der Milchstraße stattfanden. So gibt es auch eine riesige, 3000 Jahre alte Struktur aus Positronen, die weit ins All hinaus ragt. Möglicherweise stammen diese Teilchen von einer Serie mehrerer Supernova-Explosionen oder aus dem Gravitationsfeld eines Schwarzen Lochs. Auch wird ein dünnes, heißes Wasserstoff-Plasma von Supernovae durch Hunderte von Lichtjahren große „Kamine“ aus der Scheibe in den Halo und darüber hinaus geblasen. Zudem reicht eine Aura schwach leuchtender Gammastrahlung unbekannter Herkunft teilweise mehrere tausend Lichtjahre weit ins All hinaus. (Aktuell werden Minipulsare als Erklärung favorisiert.)

REM

ANTIMATERIE

Der Theoretiker Paul Dirac (1902-1984) stieß bei der Arbeit an einer verbesserten Theorie des Elektrons 1928 neben der gewöhnlichen Lösung seiner Gleichung stets auch auf eine weitere, „unphysikalische“ Lösung, die auf die Existenz von Teilchen entgegengesetzter Ladung hindeutete. Diese hatten die Masse eines Elektrons, waren aber nicht negativ, sondern positiv geladen: Anti-Elektronen oder Positronen. 1932 wurden sie durch den Physiker Carl D. Anderson (1905-1991) erstmalig in der kosmischen Strahlung nachgewiesen.

Positronen sind die ersten Atomteilchen, die gleichsam dem reinen Denken entsprungen sind – etwas, was sich auf ähnliche Weise noch oft in der Geschichte der Elementarteilchenphysik wiederholen sollte.

Dirac postulierte ganz allgemein, dass es zu jedem Teilchen ein Gegenstück aus Antimaterie geben müsse, was heute eindeutig bestätigt ist. Materie und Antimaterie sind sich „äußerlich“ zum Verwechseln ähnlich. Die meisten ihrer Eigenschaften sind identisch, doch manche gerade entgegengesetzt, z. B. die elektrische Ladung oder der Spin (Drehsinn). Treffen Materie und die entsprechende Antimaterie aufeinander, vernichten sie sich gegenseitig: Sie zerstrahlen unter Freisetzung großer Mengen an Energie. Dieser Prozess wird von den Fachleuten als Annihilation bezeichnet.

Asymmetrie

Die Asymmetrie von Materie und Antimaterie, also die Tatsache, dass unser Universum fast nur aus Materie besteht, stellt ein Problem im Standardmodell der Elementarteilchen dar. Es gibt viele Hypothesen, mit denen sich dieses Ungleichgewicht erklären lassen soll. Wir wissen nicht, ob eine davon zutrifft, und welche das sein könnte. Vielleicht liegt die Lösung dieses großen Rätsels in einer Asymmetrie der Naturgesetze, die wir noch nicht entdeckt haben. Einige Modelle verschaffen der Materie die Oberhand, indem sie neue Teilchen postulieren. Wenn diese zerfallen, könnten sie mehr Materie als Antimaterie erzeugen; oder die Teilchen wechselwirken mit Materie auf andere Weise.

Denkbar wäre, dass das Universum quasi asymmetrisch entstand, das heißt, dass es von Anfang an mehr Teilchen als Antiteilchen enthielt. So könnten nach der Theorie auf jeweils 10 000 000 000 Antimaterieteilchen 10 000 000 001 Materieteilchen entstanden sein. Teilchen und Antiteilchen begannen, sich etwa 10-6 Sekunden nach dem Urknall unter Aussendung von Photonen paarweise zu vernichten, bis nur noch der Überschuss an gewöhnlicher Materie übrig war. Daraus entwickelte sich dann das heute beobachtbare Universum aus gewöhnlicher Materie (Quarks – Bestandteilen der Protonen und Neutronen – und Elektronen).

Theoretiker wie Andrej Sacharow (1921-1989) bevorzugen ein Szenario, dem zufolge Teilchen und Antiteilchen im frühen Universum gleich häufig waren und die Teilchen erst während der Expansion und Abkühlung des Weltalls die Oberhand gewannen. Danach könnte im frühen Universum irgendein Prozess existiert haben, der das Verhältnis der Anzahl der Materieteilchen zur Anzahl der Antimaterieteilchen zu verändern vermochte. Gemäß bestimmter Erweiterungen des Standardmodells könnten solche Prozesse kurz nach dem Urknall sehr häufig gewesen sein.

Jedenfalls: Hätte es nicht einen kleinen Überschuss von Elektronen und Quarks gegenüber ihren Antiteilchen gegeben, so enthielte das Universum heute praktisch keine der bekannten Partikel, und es gäbe weder Galaxien noch Sterne – und auch wir Menschen würden nicht existieren.

CP-Verletzung

Theorien wie die Supersymmetrie oder die Stringtheorie sagen Asymmetrien zwischen Materie und Antimaterie voraus. Aber auch das Standardmodell der Teilchenphysik deutet auf kleine Abweichungen hin, die erklären könnten, warum heute mehr Materie übrig ist.

In der Physik spielt das sogenannte CPT-Theorem eine fundamentale Rolle. Es wurde 1955 von Wolfgang Pauli formuliert. C (charge) steht dabei für eine Vertauschung der Ladung – und somit von Materie und Antimaterie, P (parity) für eine räumliche Spiegelung eines Prozesses an einem Punkt, T (time) für eine Zeitumkehr. Das CPT-Theorem besagt, dass jeder mögliche Vorgang in Raum und Zeit auch dann physikalisch möglich ist, wenn man seine Raumkoordinaten spiegelt, die Zeit rückwärts laufen lässt und überdies Teilchen mit Antiteilchen vertauscht. Demnach sind alle Prozesse möglich, die einer CPT-Transformation unterliegen. Wenn das CPT-Theorem nur wenig verletzt wäre, stünden die moderne Quantenfeldtheorie sowie die Relativitätstheorie auf der Kippe.

C-Parität (Charge-Parity / Ladungs-Parität) bedeutet im Grunde die Balance zwischen Materie und Antimaterie. Die meisten Physiker nehmen eine schwache Asymmetrie dieses grundlegenden physikalischen Gesetzes an, die als CP-Verletzung (CP-Invarianz) bekannt ist. Antimaterie wäre in ihrem Verhalten demnach nicht das exakte Spiegelbild von Materie, und daher würden Materie und Antimaterie nicht die gleiche Rolle im Universum einnehmen. Die Wissenschaftler sprechen von einem Symmetriebruch, eine winzige Verletzung der Teilchen-Antiteilchen-Symmetrie. Obwohl ein „spontaner Symmetriebruch“ extrem selten auftritt, könnte er den beobachteten Überschuss der Materie erklären.

Nach der Theorie der Elementarteilchen dürfen derlei Symmetrieverletzungen einzeln zwar vorkommen, doch müssen sie klein sein, und nach sämtlichen drei Operationen – Spiegelung (P), Teilchen-Antiteilchen-Austausch (C) und Zeitumkehr (T) – muss sich alles wieder symmetrisch ausrichten. Im Paket (CPT-Symmetrie) ist die Welt dann wieder in Ordnung. Weil Spiegelung und Teilchen-Antiteilchen-Verwandlung eine Symmetrieverletzung ergeben, muss der Theorie zufolge auch die Zeitumkehr verletzt sein, damit die Symmetrie insgesamt erhalten bleibt. Das heißt nichts anderes, als dass ein „Zurück in die Vergangenheit“ nicht funktioniert.

Überraschenderweise wurde bereits 1964 in Labor-Experimenten nachgewiesen, dass die CP-Symmetrie tatsächlich gelegentlich gebrochen ist. So unterscheiden sich bestimmte Mesonen in ihrem Zerfallsverhalten von ihrem Antiteilchen. Mesonen sind Teilchen, die aus einem Quark und einem Antiquark bestehen – also quasi eine Kombination aus Materie und Antimaterie – und liegen in der Größe zwischen einem Elektron und einem Proton. Sie sind äußerst instabil und zerfallen schon nach kurzer Zeit. Inzwischen gibt es auch den Nachweis einer CP-Verletzung beim Zerfall eines Protons.

Obwohl CP-Verletzungen extrem selten auftreten, könnten sie tatsächlich der Grund sein, warum es offensichtlich kaum Antimaterie im Universum gibt. Weshalb die Symmetrie-Verletzungen auftreten und wie es zu ihnen gekommen sein könnte, ist indes auch für Physiker noch rätselhaft und bedarf noch weiterer Untersuchungen. Die gemessenen Abweichungen reichen jedoch nicht aus, um die beobachtete Materie-Antimaterie-Asymmetrie gänzlich zu erklären. Nach Einschätzung von Experten sind weitere subatomare Prozesse nötig, in denen gewöhnlichen Materie die Nase vorn hat. Sie liegen möglicherweise jenseits des Standardmodells. Das würde gleichzeitig auch bedeuten, dass das heutige Standardmodell der Teilchen unvollständig, das heißt nicht perfekt ist.

Neutrinos und Antineutrinos besitzen möglicherweise superschwere Gegenstücke, deren jeweilige Eigenschaften mit den leichten Teilchen eng verbunden sind. Sollten die Massen unterschiedlich zerfallen, könnte das im jungen Universum den Keim für das heute beobachtbare Ungleichgewicht von Materie und Antimaterie gelegt haben. Wissenschaftler gehen seit Jahren einer entsprechenden Fährte nach – bisher noch ohne endgültigen Erfolg.

Antimaterie im Universum

Antimaterie – besonders in Gestalt von Antinukleonen jenseits der Antiprotonen – stellt im gesamten bekannten Universum eine Rarität dar. Daher wird es auch zunehmend unwahrscheinlicher, dass es Antiwelt-Inseln im All gibt – wir hätten sie wohl längst entdeckt. Bei den vielen Teilchen-Zusammenstößen im Weltraum bliebe es nicht unbemerkt, wenn große Teile aus Antimaterie bestünden.

Aber hin und wieder entstehen Im Universum Antimaterieteilchen, vor allem Positronen. Ursache sind verschiedene Prozesse im All, beispielsweise Explosionen auf der Sonne, Stoßwellen von Supernova-Überresten sowie Teilchen-Kollisionen im interstellaren Gas. Wenn nach einer Supernova-Explosion ein stark beschleunigtes Proton auf eine anderes Proton trifft, werden Paare von Pionen (gehören zu den Mesonen) gebildet, welche wiederum binnen kurzem in Myonen (fast identisch mit Elektronen, aber viel schwerer und extrem kurzlebig) und gleich darauf in Positron-Elektron-Paare sowie Neutrinos und Anti-Neutrinos zerfallen. Bewegen sich die kollidierenden Teilchen mit nahezu Lichtgeschwindigkeit, reicht die Stoßenergie aus, um auch die viel schwereren Proton-Antiproton-Paare entstehen zu lassen. (Ein solcher Prozess ist die Umkehrung der Materie-Antimaterie-Zerstrahlung, denn hier wird Energie in Materie umgewandelt und nicht Materie in Energie.)

Doch es muss auch noch andere Erzeuger von Antimaterie-Partikeln geben. So könnten sie auch durch Wechselwirkungen von Gammastrahlung mit ultrastarken Magnetfeldern von Pulsaren entstehen. Darüber hinaus spekulieren die Astrophysiker, dass Antimaterie-Teilchen bei der Vernichtung der ominösen Dunklen Materie gebildet werden.

Die meisten der in Erdnähe beobachteten Antiteilchen werden bei Explosionen auf der Sonne erzeugt. Zwar ist Antimaterie auf der Erde im Grunde nicht existent. Allerdings gelangt beständig eine kleine Anzahl von Antipartikeln mit der kosmischen Strahlung auf unseren Planeten, vor allem Positronen und Antiprotonen. Diese Antiteilchen entstehen auch, wenn hochenergetische Teilchen aus dem All mit Atomen der Erdatmosphäre kollidieren. Antimaterie kann auf der Erde auch bei tropischen Gewitterstürmen und sogar bei ganz normalen Gewittern erzeugt werden. Ursache ist wahrscheinlich die Streuung von bei Blitzen erzeugten Gammaphotonen an Luftmolekülen.

Elektronen werden von den starken elektrischen Feldern in den Blitzen bis fast auf Lichtgeschwindigkeit beschleunigt. Treffen sie auf Luftmoleküle, werden sie abgebremst und erzeugen Gammastrahlen, die nur 0,2 bis 3,5 Millisekunden dauern, aber Energien von 40 Megaelektronenvolt (MeV) und mehr haben können. Passiert ein Gammaquant einen Atomkern in der Atmosphäre, kann seine Energie in ein Paar aus einem Elektron und einem Positron umgewandelt werden. Die Positronen bewegen sich dann wie die Elektronen spiralförmig entlang der Erdmagnetfeldlinien – auf Grund ihrer unterschiedlichen elektrischen Ladung allerdings mit umgekehrtem Drehsinn – und entkommen auf einer Spiralbahn ins All. Treffen Teilchen und Antiteilchen aufeinander, zerstrahlen sie. [Es wurden Gammastrahlen mit einer Energie von 511 Kiloelektronenvolt (KeV) nachgewiesen, was genau der Energie entspricht, die frei wird, wenn Positronen und Elektronen sich gegenseitig vernichten.]

Erzeugung von Antimaterie

Wissenschaftler sind heute in der Lage, Paare von Teilchen und Antiteilchen zu erzeugen. Dazu beschleunigen sie z. B. Protonen in raffiniert angeordneten elektrischen Feldern auf fast Lichtgeschwindigkeit und schießen sie auf einen Metallzylinder aus Iridium. Der Aufprall hat einen starken Energieblitz zur Folge, der sich sofort in einen Schauer von Teilchen und Antiteilchen umwandelt. Dabei entstehen z. B. auch mehrere Millionen Protonen-Antiprotonen-Paare. Der Nachweis von Antiprotonen gelang erstmals 1955 in Berkeley (Kalifornien). 1956 entdeckten Forscher Antineutronen, 1965 Antideuterium-Kerne, 1970 Antihelium-3-Kerne, 1973 Antitritium-Kerne. Auch schwerere „Geschwister“ der Positronen wurden entdeckt: Antimyonen und Antitauonen; daneben ihre drei „Vettern“, die Antineutrinos, und alle sechs Antiquarks.

2010 wurde ein neuer Typus von Antimaterie nachgewiesen: Antihypertriton. Der Stoff besteht aus einem Antiproton, einem Antineutron und einem instabilen Teilchen, Antilambda (ein Zusammenschluss aus Anti-Up-, Anti-Down- und Anti-Strange-Quark). 2011 wurde Antihelium (aus zwei Antiprotonen und zwei Antineutronen) nachgewiesen. Der schwerste bisher entdeckte Atomkern ist Antihyperwasserstoff-4, eine exotische Variante von Antiwasserstoff, der aus einem Antiproton, zwei Antineutronen sowie einem Antilambda-Teilchen besteht.

Diese Antiteilchen zerstrahlen allerdings binnen winziger Bruchteile von Sekunden wieder: 30 Milliardstel Sekunden – zu kurz, um sie exakt zu analysieren. Wenn Antiteilchen länger als Sekundenbruchteile leben sollen, muss man sie von unserer Welt sorgfältig fernhalten. Das schaffen die Physiker heute in den langen Vakuumröhren ihrer Hochenergielabore. Magnetfelder trennen dort die gegensätzlichen Teilchen, damit sie sich nicht sofort wieder auslöschen. Anschließend sortieren die Physiker die gesuchten Antiteilchen (z. B. Antiprotonen) heraus, bündeln sie in eine gemeinsame Richtung und bringen sie auf eine einheitliche Geschwindigkeit. Zum Pulk zusammengeschoben kommen sie anschließend in einen Speicherring, der bis zu 27 Kilometer Umfang haben kann. Darin rasen sie dann – getragen von Magnetfeldern und angetrieben von gepulsten elektrischen Feldern – stundenlang im Kreis herum. Sie irgendwo abzulegen verbietet sich von selbst.

Zur Produktion von Atomen aus Antimaterie müssen verschiedene Antiteilchen Stück für Stück zusammengeführt werden. Ende 1995 produzierten Wissenschaftler am Forschungszentrum CERN erstmals Antiatome aus jeweils einem Antiproton und einem Positron. Die Positronen dazu gewannen sie beim Zerfall von radioaktivem Natrium (22Na), Antiprotonen durch den Beschuss des Schwermetalls Iridium mit hochenergetischen Protonen. Ein Positron konnte dann von einem Antiproton eingefangen werden: ein Antiwasserstoff-Atom war entstanden. 2002 schaffte man es sogar schon, viele tausend Antiwasserstoff-Atome zu erzeugen und einzufangen.

Antimaterie, selbst schwerere Antiatome, lassen sich inzwischen nicht nur produzieren, sondern sogar speichern und manipulieren. Dazu muss man sie ausreichend kühlen, das heißt verlangsamen, um ihnen Energie zu entziehen. Sie können dann in speziellen elektromagnetischen Ionenfallen hinreichend lange bereitgestellt werden, um direkt mit ihnen zu experimentieren. Allerdings ist und bleibt diese Arbeit eine riesige Herausforderung: Die Anti-Atome sind elektrisch neutral und können die Ionenfallen verlassen; treffen sie auf Elektronen und Protonen der Materie, annihilieren sie und es entstehen hochenergetische Lichtquanten und Pionen.

Es wird inzwischen sogar mit kurzzeitigen Vereinigungen von Materie und Antimaterie experimentiert. Positronium (aus Positron und Elektron) ist der einfachste Fall. Protonium (aus Proton und Antiproton, die sich umkreisen) entsteht, wenn ein Antiproton mit einem ionisierten Molekül von gewöhnlichem Wasserstoff (H2) reagiert und diesem dabei ein Proton entwendet. Das ist quasi der Beginn einer Antichemie.

Antimaterie ist zwar vor allem für die Grundlagenforschung interessant, aber sie hat auch einen praktischen Nutzen. Man verwendet Antimaterie zur medizinischen Diagnostik, z. B. zur Messung von Stoffwechselprozessen. Einige radioaktive Stoffe emittieren Positronen, die z. B. im PET (Positronen-Emissions-Tomographie) zur Untersuchung der Gehirnaktivität verwandt werden. Künftig könnte sich mit Antimaterie sogar Krebs bekämpfen lassen: Verglichen mit Protonenstrahlen haben Antiprotonenstrahlen die vierfache Zerstörungskraft bei Tumorzellen.

Energieerzeugung durch Annihilation

Der Prozess der Annihilation ist die beste Art der Energieerzeugung überhaupt. Würde ein Kilogramm Antimaterie zerstrahlt, könnte man 1,8 x 10-17 Joule freisetzen. Das ist etwa 10 Milliarden Mal so viel Energie wie bei einer typischen chemischen Reaktion derselben Masse frei wird – und immerhin das 1000- bzw. 100-fache der Kernspaltung und Kernfusion. (Gäben sich ein Mensch und ein Antimensch die Hand, würde eine Explosion ausgelöst, die 50 000 Mal so viel Energie freisetzen würde wie die Hiroshima-Bombe.) Schon bei der Begegnung eines einzigen Gramms Antimaterie mit seinem Gegenstück würde durch Paarvernichtung sämtlicher Partikel eine Energie frei, die der Explosion von 40 000 Tonnen TNT entspricht – genug um fast 5000 Haushalte ein Jahr lang mit Energie zu versorgen.

Einige Wissenschaftler hoffen, dass sie Antimaterie eines fernen Tages als Treibstoff für Raumschiffe verwenden können. Der Ingenieur Gerald Jackson hält dies für einen Flug aus dem Sonnensystem hinaus für zwingend nötig. Doch bevor ein Antimaterie-Antrieb Wirklichkeit werden kann, müssen enorme Probleme überwunden werden. Wie produziert man die nötige Menge Antimaterie? Wie speichert man größere Mengen von Antimaterie? Wie wandelt man die Vernichtungsenergie in Schubkraft um?

Auf der Erde gibt es jedenfalls nicht genügend Energie, um Antimaterie in größerer Menge zu erzeugen. Diese würde nicht einmal reichen, um eine Tasse Tee damit zu erwärmen. Jackson schlägt daher vor, Antiprotonen im All einzufangen. Bei Explosionen auf der Sonne werden große Mengen an Positronen und Antiprotonen erzeugt. Etwa 80 Gramm sollen zwischen Venus und Mars um die Sonne kreisen; vermutlich bis zu 20 Kilogramm befinden sich innerhalb der Saturnbahn. Um Pluto zu erreichen, wären nur 30 Gramm Antimaterie erforderlich. Für einen Ausflug zum sonnennächsten Stern Proxima Centauri würden 17 Gramm benötigt. „Das ist nicht unmöglich“, meint Jackson, “ sondern nur eine Frage der Effizienz.“

[Allerdings kann zwar die gesamte Masse von Positronen in Strahlungsenergie umgewandelt werden, nicht aber die von Antiprotonen. Denn bei der Annihilation von Protonen bilden sich auch Neutrinos: Sie Tragen 75% der Energie davon, die sich technisch nutzen lässt.]

REM

Der Schlaf (1)

Schlaf als Element eines fortwährenden Ruhe-Aktivitäts-Zyklus ist ein offenbar bei allen Tieren in irgendeiner Form auftretendes Phänomen: Vögel schlafen, Leguane schlafen, Kakerlaken und selbst Quallen und Würmer schlafen. Schlafähnliche Ruhephasen beobachten die Biologen sogar bei Bakterien. Als tagaktives Lebewesen wird auch der Mensch in der Nacht stillgelegt. Bei einer durchschnittlichen Lebenserwartung leben wir etwa 25 bis 30 Jahre unserer Lebenszeit in dieser jederzeit reversiblen, mehr oder weniger ausgeprägten Bewusstlosigkeit.

Forscher bezeichnen Schlaf als eine „fundamentale, sich selbst organisierende Eigenschaft von Hirnzellen“. Er entsteht offenbar durch zwei weitgehend gegenläufig wirkende Mechanismen: dem circadianen System (von lat.: circa=ungefähr; dia=Tag), welches die Wachheit (Vigilanz) regelt, und dem homöostatischen Schlafbedürfnis, das mit der Dauer der Wachperiode zunimmt. Wachheit ist der Zustand, auf Umweltreize reagieren zu können – im Gegensatz zu „bewusstlos“ oder „im Tiefschlaf“ sein. Homöostase bezeichnet das Gleichgewicht zwischen Wachdauer und Schlafbedürfnis.

Eine winzige Ansammlung von Nervenzellen, der Suprachiasmatische Nukleus (SCN), der hinter den Augäpfeln und der Kreuzung der Sehnervenbahnen im Hypothalamus liegt, gibt dem Organismus den Takt vor. Diese autonom laufende innere Körperuhr nutzt den Wechsel am Morgen und Abend, um die biologische Zeit mit der Umweltzeit zu synchronisieren, sowohl mit dem Tageslauf als auch saisonal. Die Informationen über den Lichtwechsel liefern lichtempfindlichen Zellen, die vor allem unten im Auge sitzen.

Der circadiane Rhythmus wird über Hormone gesteuert. Abends befiehlt der SCN der Zirbeldrüse (Epiphyse), das Nachthormon Melatonin – ein alter Botenstoff, der schon bei Einzellern vorkommt – auszuschütten. Dieser lässt uns müde werden, und der Schlaf tritt leichter ein. (Daher auch die Bezeichnung „Schlafhormon„.) An der Schlaf-Wach-Regulierung wirken aber auch noch viele weitere Hirnstrukturen mit, die auf Umwegen ebenfalls vom SCN beeinflusst werden. Er versorgt auch die Organe über die Kontrolle der Körperkerntemperatur, die spätnachts rund 1° geringer ist als nachmittags, mit einem indirekten, permanenten Zeitsignal.

Steigende Melatoninkonzentration im Blut und fallende Körpertemperatur leiten normalerweise den Schlaf ein. Erstere erreicht gegen zwei Uhr morgens ihren Gipfel und ist dann vier- bis sechsmal höher als tagsüber, während die Körpertemperatur die meiste Zeit während eines langen Schlafs langsam wieder ansteigt. Versucht der Mensch in der Phase fallender Melatoninkonzentration und steigender Körperkerntemperatur einzuschlafen, wie z. B. nach einer Nachtschicht, ist der Schlummer meist kürzer und weniger fest.

Bei Tagesanbruch sorgt das einfallende licht für die erneute Aktivität der zeitgebenden Gehirnbereiche. Der SCN hemmt nun die Abgabe von Melatonin und löst die Ausschüttung des Corticotrophin-Releasing-Hormons im Hypothalamus aus. Dieses bewirkt wiederum, dass bei langsamer Einstellung der Melatoninproduktion das Stresshormon Cortisol in den Nebennieren in steigendem Maße ausgeschüttet wird. Es hat seinen Minimalwert in den ersten Nachtstunden und sein tägliches Maximum (22mg/100ml) am frühen Morgen.

Cortisol wird nicht nur von der Inneren Uhr gesteuert, sondern auch unbewusst, wenn wir etwa wissen: „Morgen muss ich um halb fünf raus“ – ein durchaus praktikabler Mechanismus, falls der Wecker versagt. Seine Konzentration steigt im Blut dann eine Stunde vor dem gewünschten Zeitpunkt des Aufwachens merklich an.

Der menschliche Körper beginnt sich etwa ab ab fünf Uhr morgens schon physiologisch durch die rechtzeitige Umstellung von Kreislauf und Stoffwechsel auf das Erwachen und die erhöhten Anforderungen des Tagesanbruchs einzustellen. Dabei setzt Cortisol nicht nur Energiereserven frei – es erhöht den Blutzuckerspiegel – sondern verstärkt auch den Energieumsatz und beeinflusst unser Immunsystem. Im weiteren Tagesverlauf nimmt die Menge des Hormons kontinuierlich ab. (Vermutlich ist auch der Botenstoff Histamin, der in der Morgendämmerung ausgeschüttet wird, am Aufwecken des Körpers beteiligt.)

Einschlafen

Im Laufe des Tages wird immer mehr Adenosin, ein Abbauprodukt des Energieträgers ATP (Adenosintriphosphat), ausgeschüttet, das uns, neben anderen „schlafregulierenden Substanzen„, müde macht. Die Aktivität an den Synapsen scheint direkt zur Bildung der Stoffe zu führen, die mit zunehmender Menge diese und benachbarte Synapsen abschalten. Die Gehirnzellen drosseln also das Tempo ihrer Kommunikation. Die Körperaktivität wird heruntergefahren. Die Augenlider fallen immer öfter zu, die Glieder werden schwer. Der müde Mensch sinkt mit entspannten Muskeln auf die Schlafunterlage.

Kurz vor dem Einschlafen befinden wir uns in einem „hypnagogen Zustand„, in der das explizite Denken von einem mehr bildlich assoziativen Denken abgelöst wird. Diese Vorschlaf-Phase hält bis zu fünf Minuten an. Wir sind noch ein wenig wach, aber schon fast im Land der Träume. Man bezeichnet diesen Dämmerzustand oft als „Dösen„. Er macht sich an der Schwingungslänge der Hirnwellen bemerkbar.

Unser Gehirn produziert elektromagnetische Wellen. Diese rhythmischen Schwankungen im Hirnstrombild (EEG) werden durch Erregungsmuster großer Neuronengruppen der Großhirnrinde geprägt, haben ihre Ursache aber nicht in der Großhirnrinde selbst. Sie sind die Folge der Impulse aus dem Thalamus, der als Synchronisator für mehrere Nervenzellmodule der Großhirnrinde fungiert. Durch den Thalamus laufen praktisch alle von außen über die Sinnesorgane eintreffenden Informationen (sensorische Informationen). Sie werden weitergeleitet, wenn deren Intensität eine bestimmte Schwelle überschreitet, bevor sie bewusst wahrgenommen werden. Daher wird der Thalamus auch als „Tor zum Bewusstsein“ bezeichnet.

Der Wachzustand ist durch hochfrequente Alphawellen (8 bis 13 Hertz) und Betawellen (13 bis 30 Hertz) gekennzeichnet. Letztere dominieren bei gespannter Aufmerksamkeit (normaler Wachzustand) und geistiger Aktivität. Gammawellen (30 bis 80 Hertz) sind das Korrelat für erhöhte Aktivität (starke Konzentration), etwa bei Lernprozessen bis hin zum Bewusstwerden von Gedächtnisinhalten. Bei Schlafenden zeichnet das EEG hingegen eher langsame, aber starke Ausschläge auf: Thetawellen (4 bis 8 Hertz) und Deltawellen (unter 4 Hertz).

Sobald wir die Augen schließen, häufen sich die Alphawellen im EEG-Muster. Diese treten auch bei Meditation und Hypnose auf, aber auch z. B. im Traumschlaf und bei Tagträumen. Das Hirn ist noch wach, aber entspannt; unter den geschlossenen Lidern rollen die Augen langsam hin und her. Die Wellenmuster im Hirnstrombild verlangsamen sich weiter und allmählich übernehmen die Thetawellen des leichten Schlummers das Kommando.

Geräusche der Umwelt werden noch registriert. Wer in dieser Phase angesprochen wird, reagiert meist und behauptet, noch nicht geschlafen zu haben. Gleichzeitig scheint das Gehirn in dieser Phase bereit, Dinge „unkritisch“ aufzunehmen – sein Besitzer wird leichter empfänglich für Suggestionen und Autosuggestionen. Irgendwann führt die angestaute Müdigkeit dazu, dass wir einschlafen.

Beim Einschlafen schalten sich einzelne Nervenzellverbände selbständig ab. Der Ruhemodus überträgt sich, vermutlich von internen Taktgebern des Gehirns, vor allem dem SCN, beeinflusst, mit größerer Wahrscheinlichkeit auf Nachbarregionen und breitet sich auf diese Weise langsam im Gehirn aus. Beim koordinierten Umschalten der hochkomplizierten Regelungsmechanismen vom Wach- in den Ruhezustand kann es leicht zu Unregelmäßigkeiten kommen, die sich in lästigen Zuckungen zeigen. In dieser Phase ist unser Großhirn oft schon auf dem Weg in den Schlaf, während das motorische System, das die Bewegungen steuert, noch aktiv ist. Die Zuckungen treten häufiger auf, wenn wir unter Stress stehen. Sie kommen aber nicht nur während des Einschlafens vor, sondern auch beim Übergang von einer in eine andere Schlafphase. Sie können einen aufwecken, aber auch als Gefühl des Fallens Bestandteil eines Traumes werden.

Schlaf

Schlafen ist kein passiver Zustand, sondern ein hochaktiver Prozess. Einige Nervenzellen im Gehirn feuern im Schlaf fast so häufig wie im Wachzustand. Beim Menschen sind Hunderte von Neuronen in mehreren Hirnteilen involviert. Gegenüber dem Wachzustand zeigt das schlafende Gehirn aber ein verändertes Aktivitätsmuster. Das limbische System, Hauptsitz unserer Gefühle, arbeitet im Schlaf intensiv. Dagegen läuft der präfrontale Kortex, zuständig für Denken, Aufmerksamkeit und Gefühlskontrolle, auf Sparflamme. Darum sind unsere Träume so bizarr und emotional.

Nach der Theorie des lokalen Schlafs können sich einzelne Nervenzellverbände oder Hirnregionen selbständig abschalten, wenn sie der Regeneration bedürfen – und das schon vor dem Einschlafen des Gesamtorganismus. Forscher deuten eine solche Abschaltphase als Zeichen neuronaler Erschöpfung, die wahrscheinlich durch synaptische Überlastung ausgelöst wird. Je länger beispielsweise ein Schlafmangel währt, desto häufiger sollen die lokalen Auszeiten sein. (Ratten schalten nach längerem Schlafentzug mehrfach eng umgrenzte Neuronenpopulationen für einige Zeit ab, obwohl das EEG insgesamt das typische Wachheitsmuster anzeigt.) Fraglich bleibt, ob die lokalen Nickerchen nur Energie sparen oder etwa Regenerationsprozesse anstoßen sollen.

Hirnregionen können noch wach sein, obwohl jemand offensichtlich schläft. Im Schlaflabor wirken manche Probanden schlafend, und auch die Hirnbereiche, deren Aktivität sich im Hirnstrombild zeigt, schlummern. Die Patienten behaupten aber, die Nacht über kein Auge zugetan zu haben. Bei ihnen bleibt die Scheitelhirnrinde – das Gebiet für die Wahrnehmung von Wachsein – die ganze Nacht über aktiv. Schlaf als Gesamtphänomen des ganzen Körpers kommt normalerweise erst in dem Augenblick zustande, wenn die Mehrzahl der Hirnregionen schlummert, wenn also viele Hirngebiete zugleich weggetreten sind.

Ein Beleg für die Theorie des lokalen Schlafs sind auch die Schlafwandler. Bei ihnen befinden sich einige Hirnregionen anscheinend im wachen Zustand, da die Betroffenen herumlaufen können und dabei auch beispielsweise Gegenständen ausweichen können. Sie befinden sich in einem Zustand veränderter Bewusstseinslage, irgendwo zwischen Schlaf und Wachsein. Die Theorie des lokalen Schlafs erklärt auch, warum wir morgens nach dem Aufstehen oft noch eine ganze Weile schläfrig sind: Es dauert wohl einige Zeit, bis sich der Aktivitätsmodus im ganzen Gehirn ausgebreitet hat.

Schlafzyklen

Der menschliche Schlaf verläuft in Zyklen, die sich bei Erwachsenen pro Nacht vier bis sieben Mal wiederholen. Ein Zyklus umfasst dabei vier Phasen und dauert rund 90 Minuten. (Die Grobstruktur dieses Schlafmusters war wahrscheinlich bereits vor 120 Millionen Jahren bei Säugern vorhanden; möglicherweise ist sie sogar wesentlich älter.) Die verschiedenen Schlafphasen zeigen sich an den Gehirnströmen: In den ersten drei Phasen (Leicht- und Tiefschlaf) dominieren eher langsame, große Hirnwellen, während in der vierten Phase vor allem schnelle, niedrige Wellen auftreten. Da diese Phase durch schnelle Augenbewegungen gekennzeichnet ist, bezeichnet man sie als REM-Schlaf (REM = „rapid eye movement“) oder „paradoxen Schlaf“, die übrigen Phasen als Non-REM-Schlaf (Nicht-REM-Schlaf). REM-Schlaf ist mit Veränderungen des Blutdrucks und der Atem- und Herzfrequenz und vor allem intensiven Träumen gekoppelt.

Gesteuert wird die Abfolge der Schlafphasen durch die Innere Uhr. Der Schlaf beginnt also mit dem Non-REM-Schlaf, der sich allmählich vertieft und schließlich in den REM-Schlaf übergeht. Vielerlei hormonelle, neuronale, sensorische und muskuläre Variablen wirken in den einzelnen Phasen mit. Gewöhnlich sind die Zustände und die Übergänge zwischen den Schlafstadien im Großen und Ganzen eindeutig.

Non-REM-Schlaf

Leichter Schlaf

In der ersten Phase des Non-REM-Schlafs fährt das Gehirn seine Aktivität weiter herunter, Atem- und Herzfrequenz verlangsamen sich und die Körpertemperatur sinkt. Etwa fünf Minuten nach der Einschlafphase verdrehen sich die Augäpfel schräg nach oben und bleiben dort. Thetawellen dominieren im EEG, aber auch Beta-Wellen geringer Frequenz (bis 15 Hertz) kommen vor. Thetawellen spielen sehr wahrscheinlich eine wichtige Rolle bei der Bildung und dem Abruf von Gedächtnisinhalten. Vermutlich werden durch sie weit entfernte Hirnzentren miteinander synchronisiert.

Nach 20 Minuten startet Phase zwei, der eigentliche Sprung in das Reich des Schlafes. Die Muskelspannung sinkt immer mehr. Die Umorganisation des Ruhenetzwerks sorgt dafür, dass der Schafende weder sich selbst noch seine Umwelt wahrnimmt. Werden Menschen zu Beginn dieser Phase geweckt (z. B. durch Außenreize wie Berührungen oder plötzliche Schmerzen), sind sie desorientiert und reagieren abwehrend und wollen sofort wieder einschlafen.

Gelegentlich treten bereits Deltawellen auf, Hirnwellen mit niedrigster Frequenz. Typischerweise erscheinen jetzt Schlafspindeln im EEG-Muster, hochfrequente Oszillationen, die während des Schlafs vom tief im Gehirn liegenden Thalamus generiert werden und als schlafstabilisierend gelten. Sie deuten darauf hin, dass der Thalamus die Weiterleitung eingehender Sinneseindrücke aus der Außenwelt unterdrückt.

Die Oszillationen treten durchschnittlich etwa alle drei bis sechs Sekunden auf; von Mensch zu Mensch gibt es aber mitunter deutliche Unterschiede. In letzter Zeit häufen sich die Hinweise, dass die individuelle Dichte und Amplitude der Spindeln mit Lernfähigkeit oder sogar Intelligenz zusammenhängen. Dabei scheint das gesunde Gehirn selbst zu regulieren, welche Spindeldichte es benötigt. Nach einer intensiven Lerneinheit erhöht sich die Zahl der Spindeln in der Nacht. Bei an Schizophrenie erkrankten Patienten ist die Spindeldichte dagegen nachweislich reduziert.

Tiefschlaf

Im Tiefschlaf ist die Muskulatur entspannt, die Augen stehen immer noch still, Herzschlag und Atmung sind langsam, der Blutdruck fällt. Je größer der Anteil der langsamen Deltawellen – ihre Anteil kann bis auf 40% oder sogar mehr als 50% steigen -, desto tiefer ist der Schlaf. Dass mit fortschreitender Schlaftiefe immer höhere Wellen mit abnehmender Frequenz (ohne Schlafspindeln) im EEG auftreten, spricht für eine zunehmende Synchronisation der Großhirnrinde durch den Hirnstamm. Das Bewusstsein schwindet in dem Maße, wie sich die Hirnströme verlangsamen. In dieser Phase kann es zum Schlafwandeln oder Reden während des Schlafes kommen.

Wir sind nun vollkommen unbewusst und entspannt. In dieser Phase haben wir das Gefühl, „wie ein Stein“ zu schlafen. Daher werden wir auch besonders schwer wach, wenn der Wecker jetzt klingelt. Nach der „Theorie der sensorischen Integration“ (Tononi) wird in der ersten, traumlosen Tiefschlafphase, wenn das Bewusstsein sich verflüchtigt, nicht etwa die Hirntätigkeit als solche heruntergefahren, sondern lediglich der Informationsaustausch zwischen bestimmten Arealen der Gehirns. Essenziell für den Kommunikationsabbruch scheint das thalamo-corticale System zu sein, das die Großhirnrinde mit dem Thalamus verbindet. Durch die regelmäßigen Signale, die dieser im Schlaf an die Hirnrinde sendet, verhindert der Thalamus vorübergehend, dass schwache Reize von außen ins Bewusstsein drängen (s. o.). Damit schützt er die Großhirnrinde im Tiefschlaf vor störenden, irrelevanten Geräuschen, und das Gehirn wird nicht ständig aus dem Ruhemodus gerissen.

Starke Umweltreize nehmen wir – anders als im Koma – aber wahr, denn sie bringen den Rhythmus der regelmäßigen Signale aus dem Thalamus aus dem Tritt. Dadurch sind wir in der Lage, bedeutsame oder gar gefährliche Reize zu bemerken. Das offenbar schlafende Gehirn scheint diese Sinnesreize nicht passiv aufzunehmen, sondern sie auf einem höheren kognitiven Niveau zu verarbeiten. Der Präfrontallappen (Stirnlappen) könnte die Zentrale sein, die neue Reize überprüft und – falls nötig – den Körper in Alarmbereitschaft versetzt. Er würde demnach dafür sorgen, dass eine Mutter aufwacht, wenn ihr Baby schreit, sie aber schlafen lässt, wenn ein Lastwagen vorbeidonnert.

Im Schlaf ist Hören die wichtigste Art der Wahrnehmung. Reine Geruchsreize führen in der Regel nicht dazu, dass eine Person aufwacht, nur sogenannte trigeminale Geruchsreize, die wir als stechend, beißend oder scharf empfinden. Allerdings können Geruchsreize die im Schlaf erlebten Emotionen beeinflussen und Gelerntes im Schlaf aktivieren.

Die erste Tiefschlafphase innerhalb des Schlafzyklus endet ein bis zwei Stunden nach dem Einschlafen – und zwar häufig mit einer Körperbewegung (Arousel- oder Erregungs-Reaktion), die uns für kurze Zeit in die Phase 1 oder 2 hochkatapultiert, bevor der REM-Schlaf uns ganz umfängt. Je mehr wir uns dem Erwachen nähern, verlieren die Tiefschlafphasen an Intensität und Dauer – umgekehrt nehmen Länge und Lebhaftigkeit des REM-Schlafs zu. Da die Tiefschlafphasen zum Morgen hin also immer kürzer und seltener werden, gilt der Schlaf vor Mitternacht im Volksmund als der „gesündere“.

REM-Schlaf

Beim REM-Schlaf, mit dem jeder Zyklus endet, handelt es sich um einen Zustand teilweiser oder nahezu vollständiger Muskellähmung gepaart mit einem hochaktiven, wachähnlichen Zustand des Gehirns (speziell in den mit dem Langzeitgedächtnis verknüpften Arealen). Im EEG erscheinen wenige Thetawellen geringer Höhe, dazu schnelle Beta-Wellen wie im Wachzustand. Es lassen sich charakteristische Nervenzellaktivitäten beobachten, die sich ausgehend von der Brücke (Pons) über den seitlichen Kniehöcker (Corpus geniculatum laterale) bis zum visuellen Kortex fortpflanzen: sogenannte PGO-Wellen. Ist die Pons beschädigt, erleben die Menschen keinen REM-Schlaf.

Der Energieumsatz im Gehirn (Glukose) ist hoch, Atem- und Herzfrequenz sowie Blutdruck steigen an. Unter den geschlossenen Augenlidern kommt es zu wilden Augenrollbewegungen. Der Grund dafür ist noch unklar. Eine Theorie besagt, dass die Augäpfel sich drehen, um die Augenlider zu befeuchten oder um das Gehirn zu wärmen. Nach einer weiteren recht einleuchtenden Idee bewegen sich die Augen, um dem Geschehen zu folgen, das während der Traumsequenzen abläuft – ganz ähnlich, wie unser Blick ja auch im Wachen umherschweift und sich an Dingen festmacht, die unsere Aufmerksamkeit erregen.

Im REM-Schlaf kommt es zu den intensivsten Träumen, an deren Inhalt man sich auch am häufigsten erinnert. Daher bezeichnet man den REM-Schlaf auch als „Traumschlaf“, obwohl wir auch in anderen Schlafstadien träumen. Die Amygdala tritt dabei voll aufs Gas und sorgt wahrscheinlich für die lebhafte und stark emotionale Tönung vieler dieser Träume. Hingegen schweigt der für Logik, Vernunft und Urteil zuständige präfrontale Kortex, was die oftmals skurrilen Hirngespinste erklären mag. Visuelle und motorische Areale im Großhirn sind umso aktiver. Die Informationen, die vom motorischen Zentrum an die Muskeln gehen, werden allerdings durch hemmende Neurotransmitter blockiert. Diese motorische Blockade schützt den Träumer davor, die heftigen Traumbewegungen in die Realität umzusetzen.

Der Organismus ist jetzt gegen Außenreize am stärksten abgeschirmt, und es ist besonders schwierig, den Schläfer zu wecken. Spontanes Erwachen aus einem intensiven REM-Schlaf ist daher selten: Entweder reißt uns der Wecker oder ein lautes Geräusch aus dem Schlaf – oder das Bewusstsein, aufstehen zu müssen, weckt uns. Das plötzliche Aufwachen kann dabei das unangenehme Gefühl erzeugen, uns nicht bewegen zu können.

Der im Schlafzyklus erste REM-Schlaf währt nur höchstens 10 Minuten. Im Verlauf der Nacht werden seine Phasen länger: Sie steigern sich bis auf 40 Minuten, während die schnellen Augenbewegungen dichter werden. Gegen Morgen verbringen wir die meiste Zeit im REM-Schlaf, der immer unruhiger wird, so dass ein baldiges Aufwachen wahrscheinlich ist. Insgesamt verbringt ein menschlicher Säugling etwa 50% seiner Schlafenszeit (etwa acht Stunden) in REM-Phasen. Bei einem gesunden 30-Jährigen liegt der durchschnittliche REM-Schlaf pro Nacht bei 20 bis 25%.

Schlaftypen

Heute schlafen die Menschen weniger als jemals zuvor in ihrer Geschichte. Kaiser Napoleon, ein Kurzschläfer, hatte für die Schlafdauer verkündet: „Vier Stunden für die Männer, fünf für die Frauen, sechs für die Idioten.“ Doch der geniale Physiker Albert Einstein fühlte sich erst nach 12 Stunden erfrischt. Es sind die Gene, die bestimmen, mit wieviel Stunden Schlaf man auskommt. Die Mehrzahl der Menschen braucht sieben bis acht Stunden Schlaf, um sich bestens ausgeruht zu fühlen. Kurzschläfern genügen vier bis sechs Stunden. Frauen schlafen meist länger als Männer, Babys und Kinder etliche Stunden mehr als Erwachsene.

Es sind bisher schon mehrere Erbanlagen bekannt, die mit natürlichem Kurzschlaf zusammenhängen. So vermindern etwa Mutationen im Gen SKI die pro Tag benötigte Schlafdauer, ebenso eine seltene Mutation des Gens DEC2 oder eine äußerst seltene Variante des Gens ADRB1. Forscher entdeckten auch bereits einen Zusammenhang zwischen der Neuronenzahl in einer Hypothalamusregion und dem Schlafverhalten. Probanden mit den meisten Neuronen dort verbrachten nachts 50% mehr schlafend als jene mit den wenigsten Nervenzellen. Häufig scheint die Schlaflosigkeit von Alzheimerpatienten auf dem Schwinden der Neuronen in dieser Region zu beruhen.

Ursache dafür, dass ältere Menschen in der Nacht weniger schlafen – oft nur noch sechs Stunden – ist vor allem die Veränderung der Melatonin-Sekretion, die nach der Pubertät linear abnimmt. Während bei Grundschülern der Melatoninspiegel in der Nacht noch auf das bis zu 20-fache der Werte am Tag ansteigt, betragen im Alter die Melatoninwerte nachts gerade einmal das Dreifache. Bei beginnender Demenz verringert sich die Melatoninsynthese noch weiter.

Im Alter wird der Schlaf typischerweise auch ineffizienter. Wir brauchen länger, um einzuschlafen, tummeln uns länger in Leichtschlafphasen und werden öfter wach. Bei dieser Zerstückelung der Nachtruhe haben auch Orexine, evolutionär gesehen uralte Hormone, ihre Finger im Spiel. So verbringen wir in jungen Jahren etwa 20% unserer gesamten Nachtruhe im Tiefschlaf. Im Alter geht sein Anteil am Gesamtschlaf deutlich zurück. Ein Grund dafür soll auch der Verlust an grauer Hirnsubstanz sein.

Chronotypen

Wir unterscheiden aber nicht nur Kurz- und Langschläfer, sondern auch ererbte Schlaftypen. Forscher sprechen von Chronotypen: „Morgenmenschen“ (ausgeprägte Frühaufsteher oder Lerchen) und „Nachtmenschen“ (Abendtypen oder Eulen). Beim Frühtyp steigt am Abend die Konzentration von Melatonin etwas eher an als beim Spättyp, und die Körpertemperatur erreicht ihren Tiefpunkt schon früher. Abendtypen sind später einschlafbereit („Nachtschwärmer“) und stehen unter normalen Bedingungen spät auf. Die Schlafdauer ist dabei allerdings weitgehend unabhängig vom Chronotyp.

Im Laufe des Lebens verstellt sich die Innere Uhr. Teenager werden mit Beginn der Pubertät abends deutlich später müde. Das gilt sowohl für Eulen wie auch für Lerchen: ihren Höhepunkt erreicht diese Entwicklung etwa um das 20. Lebensjahr. Besonders Männer haben es nun schwer, denn sie erreichen ihre Schlafmitte im Schnitt erst gegen 5.30 Uhr. Im Erwachsenenalter kehrt sich der Trend allmählich wieder um, bis man circa ab dem 60. Lebensjahr wieder ungefähr so früh wach wird wie als Kind. Da die Signale des SCN immer schwächer und undeutlicher werden, wird es für ältere Menschen aber generell schwerer, die Innere Uhr nach dem Tag-Nacht-Wechsel einzustellen.

Alzheimer lässt den Zeitgeber im Gehirn völlig aus dem Takt geraten. Die circadianen Rhythmen hinken um Stunden hinterher. Eine solche aus dem Takt geratene circadiane Rhythmik trägt ursächlich zu der mehr und mehr schwindenden Gedächtnisleistung bei.

Den Chronoforschern zufolge steuern wir nach Mitternacht alle auf eine „Krisenstunde“ zu. Zwischen drei und vier Uhr arbeitet der Organismus der meisten Menschen auf „Sparflamme“. Der Körper hat sein Leistungstief erreicht, auch die geistige Leistungskraft ist am geringsten, Temperatur und Blutdruck liegen niedriger als üblich, während die Konzentration entzündungsfördernder Zytokine am höchsten ist. Es ist die Zeit, in der Menschen die schwersten Fehler unterlaufen und Katastrophen ausgelöst werden (z. B. Tschernobyl). Auch manche Krankheitsereignisse treten bevorzugt zu bestimmten Nachtzeiten auf: Hirninfarkte bevorzugt um drei Uhr nachts, Angina-Pectoris-Anfälle besonders zwischen vier und sechs Uhr morgens.

REM

Zukunft von Erde und Sonne

Unser Sonnensystem entstand vor etwa 4,6 Milliarden Jahren aus einer rotierenden Materiewolke. In deren Zentrum bildete sich ein riesiger Ball aus Gas, unsere Sonne, die seitdem als konstantes „Wärmekraftwerk“ funktioniert. Um sie herum formierten sich Planeten, darunter auch unsere Erde. Das geschah vor 4,56 Milliarden Jahren, was sich relativ zuverlässig durch die Analyse von Blei-Isotopen (Endprodukte des radioaktiven Zerfalls von Uran) in den ältesten Körnchen urtümlicher Meteoriten bestimmen lässt.

Gefahren für Erde und Leben

Unser Heimatplanet und das Leben, das sich auf ihm entwickelte, erlebte im Laufe der Zeit immer wieder große Katastrophen. So gab es bereits in der Frühzeit der Erde gigantische Meteoriteneinschläge, die tausendmal häufiger waren als in der jüngeren Erdgeschichte. Kometen und Asteroiden stellen auch weiterhin eine Bedrohung für das Leben auf der Erde dar. Dies gilt vor allem für größere Objekte, die in mindestens mehreren hundert Kilometern Umkreis Leben, auf jeden Fall alles menschliche Leben, auslöschen und sogar die Fotosynthese zum Erliegen bringen könnten. Im erdnahen Bereich schätzen die Wissenschaftler die Anzahl der größeren Asteroiden auf mehrere Tausend. Ein Einschlag kann jederzeit geschehen – morgen, im kommenden Jahr, in hundert oder vielleicht erst in einer Million Jahren.

Die bedrohlichsten Brocken sind Erdbahnkreuzer mit Durchmessern von bis zu 15 Kilometern, von denen in den letzten 500 Millionen Jahren höchstens drei die Erde getroffen haben. Wenn in Zukunft ein solches Objekt die Erde mit der üblichen Geschwindigkeit von 50 000 km/h trifft, könnte wieder ein Massensterben ausgelöst werden wie vor 65 Millionen Jahren, als durch den Einschlag des Yucatan-Meteoriten über die Hälfte aller Arten ausgelöscht wurde. Viele halten die Gefahr eines solchen Einschlags und seine Folgen allerdings derzeit für vernachlässigbar, einige sogar schlicht für undenkbar. Zudem entscheiden viele Faktoren über die Auswirkungen: die Geschwindigkeit des Geschosses, sein Auftreffwinkel und vor allem sein Zielgebiet.

Die größte Gefahr für das Leben auf der Erde geht wohl heute von Supervulkanen aus, die von vielen tausend Quadratkilometer großen und bis zu 20 Kilometer tiefen Magma-Reservoirs gespeist werden. Ein Ausbruch würde so viel Asche in die Atmosphäre blasen, dass riesige Gebiete von einer mehrere Meter hohen Schicht bedeckt würden. Jahrelang wäre die Sonneneinstrahlung auf der Erde vermindert – mit verheerenden Folgen für das Klima, und damit auch für Landwirtschaft und Ökonomie. Aber die Menschheit würde wohl nicht vollkommen aussterben. Tatsächlich haben unsere Ahnen schon mindestens zwei Supervulkanausbrüche überlebt: Vor 74 000 Jahren explodierte der Toba auf Sumatra und vor 26 500 Jahren der Taupo auf Neuseeland.

Für kleinere Supervulkane beträgt die Ausbruchswahrscheinlichkeit in diesem Jahrhundert beängstigende 1 zu 6. Es gibt zahlreiche Gefahrenherde: Zwei potentielle Supervulkane schlummern beispielsweise unter Europa: in den Phlegräischen Feldern bei Neapel und im östlichen Mittelmeer in der Nähe der Insel Kos.

Gefahren für das Leben können auch von außerhalb unseres Sonnensystems kommen. In der Milchstraße ticken zahlreiche Zeitbomben: Große Sterne, die irgendwann unweigerlich als Supernova explodieren werden. Etwa alle 250 Millionen Jahre soll sich eine solche Supernova in höchstens 30 Lichtjahren von der Erde entfernt ereignen. Die über Monate eintreffende hochenergetische Strahlung würde zu chemischen Reaktionen in der Stratosphäre unseres Planeten führen, was die schützende Ozonschicht für UV-B-Strahlung durchlässiger machen würde. Diese wird von der DNA-Erbsubstanz besonders stark absorbiert und dadurch geschädigt. Vielleicht sind schon früher Supernovae in der Nähe unseres Planeten detoniert und haben das irdische Leben an den Abgrund gedrängt, auch wenn es dafür derzeit keine Belege gibt. Wann und wo die nächste Supernova in der Nachbarschaft explodiert, ist allerdings schwer zu sagen.

Obwohl viel weiter entfernt als Supernovae, haben kosmische Gammastrahlenausbrüche (GRBs) ähnlich verheerende Auswirkungen. Sie entstehen u. a. bei Explosionen von Riesensternen (Hypernovae), die viel mehr Energie als eine Supernova abstrahlen – aber nicht in alle Richtungen zugleich, sondern, wie ein Leuchtturm, in zwei gegenüberliegende, kegelförmige Gebiete. Würde uns ein GBR treffen, wären auch hier die langfristigen Effekte verheerend. Die Ozonschicht könnte um 35%, in manchen Bereichen sogar um 55%, reduziert werden – und das für Jahre. (Ein Ozon-Verlust von 50% bedeutet eine Verdreifachung der eintreffenden UV-B-Strahlung.) Außerdem träfe eine große Menge an radioaktiven Elementen auf die Erde, was das Leben zusätzlich schädigen würde.

Im Lauf der letzten Jahrmilliarde sollte sich mindestens ein Gammastrahlenausbruch im Umkreis von 6000 Lichtjahren um die Erde ereignet haben. Manche Wissenschaftler spekulieren, dass das verheerende Massenaussterben am Ende des Ordoviziums vor 440 Millionen Jahren auf das Konto eines Gammastrahlenausbruchs gegangen sein könnte.

Zukünftige Entwicklung der Erde

Nach Meinung des Geologen Christopher Scotes werden sich in 250 Millionen Jahren die Landmassen der Erde am Äquator wieder zu einem Superkontinent – Pangäa Ultima (oder Pangäa Proxima) – vereinigt haben. (Der letzte Superkontinent, Pangäa, war vor 350 Millionen Jahren entstanden.) Gleichzeitig wird sich die Sonneneinstrahlung auf der Erde erhöht haben (um rund 2 1/2%. Denn durch die Fusion des Wasserstoffs (vier Wasserstoffkerne zu jeweils einem Heliumkern) sinkt die Teilchendichte und der Zentralbereich der Sonne schrumpft, was ihre Fusionstätigkeit steigert.

Auf der Erde kann der Temperaturanstieg infolge der stärkeren Sonnenstrahlung eine Zeitlang noch durch ein komplexes Wechselspiel von biologischen, geologischen und klimatischen Reaktionen abgemildert werde. Beispielsweise steigt mit der Temperatur die Verwitterungsrate des Silikatgesteins, wodurch der Atmosphäre CO2 entzogen wird (Karbonat-Silikat-Kreislauf). Aber die zunehmende Trockenheit verhindert schließlich, dass größere Mengen Silikatgestein in die Ozean gespült wird.

Durch die veränderten geologischen und geografischen Bedingungen erhöhen sich die atmosphärischen CO2-Werte stark. Vor allem ist es der enorme Anstieg des Vulkanismus, der den Kohlenstoffdioxidgehalt der Atmosphäre in die Höhe treibt und die Erwärmung weiter ankurbelt. Der CO2-Gehalt könnte auf 600 ppm (Teile pro Million) – heute 420 ppm – ansteigen, was zu einer weiteren Verschärfung der klimatischen Bedingungen führen würde. (In einem Worst-Case-Szenario erreicht das Kohlenstoffdioxid in der Atmosphäre gar einen Anteil von 1120 ppm.)

Die Kombination aus einer helleren Sonne, hohen CO2-Werten und einem Kontinentalklima wird die Temperaturen auf dem Superkontinent tagsüber auf bis zu 70°C ansteigen lassen. Die Regionen in der Mitte, weit von den Ozeanen entfernt, werden sich in lebensfeindliche Wüsten verwandeln, in denen keine Säuger mehr leben können, aber auch keine anderen Tiere und Pflanzen, abgesehen von einigen sehr spezialisierten. Durch die Entstehung des neuen Superkontinents, die extreme Hitze und verstärkte vulkanische Aktivität sollte auf der Erde Leben, wie wir es kennen, also größtenteils nicht mehr möglich sein.

Ein Teil des Planeten könnte aber selbst bei extremer Erwärmung für Säugetiere zunächst noch bewohnbar bleiben – nach der Prognose 8 bis 16% der Erdoberfläche (heute 66%), namentlich die Küsten- und Polarregionen. Auch Menschen könnten, wenn man optimistisch ist, Mittel und Wege gefunden haben, um sich anzupassen und zu überleben.

Ende des irdischen Lebens

Allerdings halten einige Wissenschaftler auch ein Aussterben aller Säugetiere zumindest für eine unter mehreren möglichen Ergebnissen. Der Verlauf der Entwicklung ist schwer zu prognostizieren. Der Exitus für das Leben wird auf jeden Fall kommen, aber wohl in Raten. Die immer stärker strahlende Sonne wird die Oberflächentemperaturen unerbittlich in die Höhe treiben. Einer Theorie nach nimmt in einigen hundert Millionen Jahren der Kohlenstoffdioxidgehalt in der irdischen Atmosphäre ab. Die Vegetation wird spärlich und zieht sich auf den Kontinenten nach und nach in Nischen zurück. Das Aussterben träfe die höheren Lebensformen zuerst. Nach dieser Theorie bliebe die Erde für komplexe mehrzellige Lebensformen wie auch den Menschen „nur“ noch für etwa 500 Millionen Jahre bewohnbar.

Neuere Theorien gehen davon aus, dass erst in 800 Millionen Jahren die irdische Durchschnittstemperatur 30°C übersteigt und der Hitzetod für höhere Lebewesen eingeläutet wird. Die letzten Tiere, die sich an die extremen Umweltbedingungen anpassen konnten, würden durch den Zusammenbruch der Nahrungsnetze verhungern. Denn die Atmosphäre enthielte zu wenig CO2 für Pflanzen, Grünalgen oder Cyanobakterien, um noch Fotosynthese betreiben zu können. Die Pflanzen sterben massenhaft aus, und damit entfiele die Hauptquelle für den Luftsauerstoff und die Produktion von Biomasse.

Sowie die letzten Pflanzen verschwunden sind, wird der CO2-Gehalt der Atmosphäre wieder ansteigen, was einen verschärften natürlichen Treibhauseffekt mit ungeheurer Dynamik zur Folge hätte. Er verwandelt die Erde in eine Art Schnellkochtopf, die Jahresmitteltemperatur stiege auf 50°C. Einfache Organismen können noch mittlere Temperaturen von 45°C und mehr aushalten. Unbehelligt von höheren Organismen werden sie sich in Form von schleimigen, gallertartigen Matten weiträumig über das Gestein ausbreiten. Doch auch mit ihnen wird es bald vorbei sein.

Böden, die von Pflanzen gebildet und festgehalten werden, sind der Erosion preisgegeben: Sie werden abgetragen und von reißenden Flüssen in die Ozeane gespült. Zurück bleibt nacktes Gestein. Mit dem Verlust an Sauerstoff (s. o.) verschwindet auch die Ozonschicht, welche die Erde vor der starken UV-Strahlung aus dem All schützt. Auf unserem Planeten wird es dann ungemütlich. Nur die Extremophilen, die ohne Sauerstoff auskommen, halten wohl länger durch. Sie leben kilometertief unter der Erdoberfläche im Gestein und können extreme Temperaturen ertragen.

Die intensivere und immer weiter ansteigende Sonnenstrahlung lässt die Polkappen schmelzen. Die Ozeane erwärmen sich, riesige Mengen Wasser verdunsten. In spätestens einer Milliarde Jahren sollte nach neuesten Erkenntnissen jegliches oberirdische Wasser in dem heißen, venusähnlichen Treibhaus verdampft sein. Irgendwann wird die Plattentektonik womöglich zum Erliegen kommen, weil das Erdinnere unmerklich abkühlt (um 1% pro 100 Millionen Jahre). Dadurch versiegen nach und nach die Konvektionsströme, welche die Landmassen in Gang halten. Die Gebirgsbildung hört auf und die starke Erosion beginnt die Erdoberfläche abzuflachen.

In etwa 3,5 bis 6 Milliarden Jahren lässt der Treibhauseffekt die Temperaturen auf 1000°C ansteigen, wodurch die Gesteine schmelzen. Magmaozeane entstehen und Sulfat-Mineralien wie Gips lösen sich auf. Aus unserem blauen Planeten wird ein glühender Materieklumpen. Wenn eine dünne Dampfatmosphäre erhalten bleibt, wird sie eine tödliche Menge an Schwefelsäure enthalten.

Ende der Sonne

Nach fast fünf Milliarden Jahren hat die Sonne heute zwar erst 4% ihres ursprünglichen Wasserstoffvorrats verbraucht und dabei 0,7% ihrer ursprünglichen Masse verloren, die als Energie in den Weltraum abgestrahlt wurde. Ginge die Schrumpfung in diesem Tempo weiter, wäre die Sonne erst nach 13 000 Milliarden Jahren verschwunden. Entscheidend für ihre Lebensdauer ist aber der Wasserstoff in ihrem Zentralbereich. Nur hier sind Temperaturen und Druck hoch genug, um Kernreaktionen ablaufen zu lassen. Doch im Zentrum der Sonne ist heute schon fast die Hälfte des Wasserstoffs zu Helium verschmolzen, und der Wasserstoffvorrat reicht insgesamt nur noch für einen Zeitraum von etwa 7,5 Milliarden Jahren.

Da sich die Leuchtkraft der Sonne im Lauf ihres Lebens langsam erhöht, verschiebt sich auch die schmale, bewohnbare Zone im Sonnensystem, in der es flüssiges Wasser gibt. Deren Grenze rückt immer weiter von unserem Zentralgestirn weg. Wie aktuelle Berechnungen zeigen, befindet sich die Erde schon heute am inneren Rand der lebensfreundlichen Zone und damit schon nahe der Überhitzung. In sieben Milliarden Jahren wird unser äußerer Nachbarplanet Mars 100 Millionen Jahre lang erdähnliche Temperaturen bekommen, so dass er wieder offene Meere trägt. Danach wird auch auf ihm die Hitze alles Wasser verdampfen. Dagegen wird es in 7,4 Milliarden Jahren auf dem Jupitermond Europa gemütlich werden, einige Millionen Jahre später auch auf dem Saturnmond Titan und dem Uranusmond Oberon.

In rund 5 bis 6 Milliarden Jahren hat die Sonne ihren Wasserstoffvorrat in ihrem Zentralbereich aufgebraucht und beginnt, auch die Heliumatome zu fusionieren. Der Kern schrumpft, bis Temperatur und Druck so hoch sind, dass nun das Helium zu schwereren Elementen fusioniert wird. In den äußeren Schichten gibt es jedoch noch ausreichend Wasserstoff. Durch die hier ablaufenden Kernfusionsvorgänge heizt sich die Hülle auf und die Sonne gerät aus dem Gleichgewicht. Sie ist in eine neue Phase eingetreten und beginnt sich aufzublähen.

Etwa eine Milliarde Jahre nach Versiegen des Wasserstoffbrennens im Kern hat sich unser Stern schließlich auf das 160-fache seines ursprünglichen Durchmessers ausgedehnt. Dabei hat sich seine Farbe in ein tiefes Rot verwandelt, da durch die Expansion die Temperatur an der Oberfläche um etwa 3000°C abkühlt. Astronomen sprechen jetzt vom RGB-Stadium, weil die Sonne dann im Hertzsprung-Russell-Diagramm – dem astronomischen Standardschema zur Charakterisierung von Sternmerkmalen und Sternentwicklungszuständen – in der „Red Giant Branch“ gewandert ist, den Bereich des „Roten Riesen„.

Der Rote Riese verschlingt Merkur und Venus. Sie verdampfen in der Sonnenglut. Ob die Erde dieses Schicksal teilt oder ihm knapp entgeht, ist unklar. Gegenwärtige Modelle kommen zu unterschiedlichen Ergebnissen, was das Schicksal unseres Planeten angeht. Vielleicht verglüht der einst blaue Planet ohne kaum Spuren zu hinterlassen. Da er nur etwa 200 Sonnenradien von der Sonne entfernt ist, kommen aber in jedem Fall die Ränder des Roten Riesen der heutigen Umlaufbahn der Erde gefährlich nahe. Dann würde nur ihre Atmosphäre, ihre Kruste und ihr Mantel verdampfen. Der Erdkern aus Eisen und Nickel aber würde als erkalteter und dunkler Metallklumpen übrig bleiben und den Rest des Roten Riesen umrunden.

Die sich aufblähende Sonne könnte ihn aber auch auf eine weiter entfernte Umlaufbahn drängen. Das wird vor allem davon abhängen, wie rasch die Sonne durch die Schrumpfung ihres Kerns an Masse verliert. Durch einen starken Sonnenwind könnten das bis zu 30% sein, was ihre Schwerkraft erheblich schwächen würde. Geschieht dies schnell, könnte die Erde aufgrund der nachlassenden Anziehungskraft der Sonne in eine entfernte Umlaufbahn nahe der heutigen Marsbahn (bis auf das 1,7-fache des heutigen Abstands) abdriften – als eine mehr als 1200°C heiße Kugel aus größtenteils geschmolzener Lava.

Ein in 4200 Lichtjahren Entfernung befindlicher Weißer Zwerg deutet darauf hin, dass erdähnliche Planeten in Sternennähe die Phase des Roten Riesen ihres Muttersterns so überstehen können. Als sein Stern sich aufblähte, drückte dieser den Exoplaneten auf eine weiter entfernte Umlaufbahn. Das könnte also der Erde in ein paar Milliarden Jahren ebenfalls blühen.

Inzwischen spricht aber wieder mehr für ein feuriges Finale. Nach den Berechnungen wird die Erde wahrscheinlich verschluckt, denn die dünne Sonnenatmosphäre verlangsamt die Bewegung der Erde, was deren Bahnradius verringert. Magnetfelder sollten zusätzlich abbremsen. Die Erde wird demzufolge von der sich aufblähenden Sonne geröstet und verglüht einige Dutzend Millionen Jahre später (spätestens im Maximum des RGB-Stadiums) in deren Feuerschlund.

[Der Mond wird schon vorher vom Gas der ausgedehnten Sonne stärker noch als die Erde abgebremst. Schließlich wird er unserem Planeten so nahe kommen, dass er von dessen Gravitationsfeld in Stücke gerissen wird. Die Trümmer werden riesige Krater in die heiße Erdoberfläche schlagen.]

Vom Roten Riesen zum Weißen Zwerg

In der zweiten Phase des Roten Riesen, dem AGB-Stadium (Asymptotic Giant Branch) verändern die chemischen und physikalischen Prozesse die Materie-Eigenschaften des Roten Riesen. Dadurch dringt einmal mehr Strahlung nach außen. Die Sonne bläht sich nach dem Aufbrauchen ihres zentralen Helium-Brennstoffvorrats erneut zu einem Roten Riesen auf, wird aber entgegen früheren Abschätzungen nicht noch größer als im RGB-Stadium.

In einem sterbenden Stern kann Kohlenstoff zu schwereren Kernen fusioniert werden. Allerdings wird die Sonne nicht heiß genug, um einen merklichen Anteil ihres Kohlenstoffs in Sauerstoff umzuwandeln. Daher schrumpft der Riesenstern, kurz nachdem sämtliche Heliumvorräte in Kohlenstoff umgewandelt und die Kernreaktionen erschöpft sind. Mehrere Millionen Jahre lang wird durch immer heftigere Pulsbewegungen Materie ins All geschleudert, bevor in einer nächsten Phase die äußeren Materieschichten durch einen noch heftigeren Ausbruch komplett abgeworfen werden. Sie treiben als Gaswolken ins Universum davon und dehnen sich Tausende von Jahren aus. Die Strahlung des sterbenden Sterns regt sie zum Leuchten an; die Wissenschaft spricht von einem „Planetarischen Nebel„. Dieser leuchtet jedoch deutlich schwächer als die Planetarischen Nebel schwererer Sterne.

Übrig bleibt eine dichte Kugel von ungefähr Erdgröße, eine kleine, milchig schimmernde Sternleiche, ein Weißer Zwerg. Er besteht hauptsächlich aus Kohlenstoffkernen und Elektronen und besitzt fast soviel Masse wie die heutige Sonne. Anfangs ist der Weiße Zwerg noch sehr heiß, glüht aber langsam aus und erkaltet. Schließlich wird auch er verlöschen – und mit ihm unser ganzes Sonnensystem. Nur ein Kranz aus Staub und Gas (ein Ringnebel, gebildet aus der abgestoßenen Materie) erinnert dann noch an seine frühere Existenz.

Zukunft der Milchstraße

Unsere Milchstraße wird bis in die Zukunft gefräßig bleiben. Sie wird weiter kleinere Begleitsysteme (Zwerggalaxien) zerreißen und deren Sterne in sich aufnehmen, die sich dann als Sternenströme innerhalb der Milchstraße einordnen, ähnlich jenen, die wir jetzt im Halo sehen. Unterdessen strömen permanent Gaswolken aus dem intergalaktischen Raum ins Milchstraßensystem hinein.

Die Zwerggalaxien Fornax, Carina und vielleicht Sextans mussten dem galaktischen Halo schon Sterne überlassen und werden irgendwann förmlich dahinschmelzen. In vielleicht einer Milliarde Jahren wird die Zwerggalaxie Sagittarius, die sich in den letzten Jahrmillionen unserer Milchstraße genähert hat, endgültig vom Milchstraßensystem einverleibt werden. An der Großen und Kleinen Magellanschen Wolke zerrt die Gravitation unserer Galaxie auch schon kräftig – der Magellansche Strom aus Wasserstoff ist eine Folge dieser Gezeitenkräfte. Die beiden Satelliten am Südhimmel dürften in einige Jahrmilliarden einen kalorienreichen Nachtisch für die Milchstraße abgeben.

Auch der Andromeda-Nebel, die zweite große Spiralgalaxie in der Lokalen Gruppe, befindet sich auf Kollisionskurs mit der Milchstraße. Er rast mit 114 km/s auf unsere Galaxie zu. In wenigen Jahrmilliarden (vermutlich in vier Milliarden Jahren) werden beide Galaxien aufeinander treffen. Nach den bislang bekannten Daten wird die Andromeda-Galaxie wohl „nicht ganz so radial“ auf die Milchstraße treffen, wie bisher gedacht. Sie bewegt sich vielmehr etwas schräg zu ihr in Richtung eines gemeinsamen Treffpunkts. Das heißt, sie fliegt nicht nur mit 114 km/s auf unsere Galaxie zu, sondern auch um rund 57 km/s quer zu ihr. Daher wird es wohl zu einem engen Vorbeiflug im Abstand von gut 400 000 Lichtjahren kommen. (Berücksichtigt man die Einflüsse der Galaxie M33 und der Großen Magellanschen Wolke, könnte sich der Abstand halbieren, die Zeit aber um eine Jahrmilliarde verlängern.) Aufgrund der gravitativen Wechselwirkung bildet sich vermutlich eine Verbindungsbrücke aus Gas und Sternen.

Bei dieser Annäherung spielt der Reibungsverlust durch das Intergalaktische Medium noch kaum eine Rolle. Dann kehren die Sternenkolosse um, rasen auf gekrümmten Bahnen erneut aufeinander zu, verformen und verwirbeln sich. Die gravitativen Gezeitenkräfte schleudern einen beträchtlichen Teil der Gase und Sterne in den intergalaktischen Raum. Während sich die interstellaren Gas- und Stabwolken quasi ineinander verkeilen, vermischen sich auch die Sternpopulationen der beiden Galaxien. Durch die Turbulenzen erhöht sich die Sternentstehungsrate drastisch. Das geschieht umso schneller, je größer die Dichte der Materie zwischen den Galaxien ist.

Zum Glück ist zwischen den Sternen so viel Platz, dass Sternkollisionen extrem unwahrscheinlich sind. Die Distanzen der Himmelskörper sind relativ zu ihrem Durchmesser typischerweise so enorm, dass sich die Galaxien, was die Sterne betrifft, nahezu berührungslos durchdringen. Lediglich etwa 100 Sterne der Milchstraße werden nach den Berechnungen mit Objekten von Andromeda kollidieren.

Unser Sonnensystem dürfte kaum tangiert werden. Die Entfernung von der Sonne zu ihrem nächsten Nachbarn (Proxima Centauri) beträgt über 4,2 Lichtjahre – das entspricht dem 30-Millionen-fache des Sonnendurchmessers. (Hätte unsere Sonne die Größe eines Tischtennisballs, dann wäre Proxima Centauri eine 1100 Kilometer entfernte Erbse.) Selbst im Zentrum der Milchstraße, wo die Sterne bekanntlich enger stehen, beträgt ihr Abstand voneinander noch knapp 0,02 Lichtjahre, was bei einer Sternengröße von einem Tischtennisball einem Abstand von drei Kilometern entspräche.

Allerdings könnte die Bahn der Sonne erheblich gestört werden. Die Chance, dass unsere Sonne schon bei der ersten Kollision zwischen Milchstraße und Andromedanebel in die Außenbezirke (über 60 000 Lichtjahre vom Galaktischen Zentrum entfernt) geschleudert wird, wird auf 12% geschätzt. Bei der zweiten Kollision wächst die Wahrscheinlichkeit jedoch schon auf 30%. Und bei knapp 3% liegt die Wahrscheinlichkeit dafür, dass die Sonne vorübergehend ein Mitglied des Andromedanebels wird, also die Galaxie wechselt, bevor beide Spiralen sich zu Milkomeda vereinen. Unser alternder Stern wird dann heller strahlen als heute und auf eine völlig verdörrte Erde scheinen (s. o.).

Schließlich verlieren die beiden Sterneninseln ihre flache, pfannkuchenartige Gestalt mit um das Zentrum kreisenden Sternen und verschmelzen zu einer einzigen Galaxie, einem ellipsoiden Gewimmel aus zufällig verteilten Sternenbahnen. Eine riesige elliptische Galaxie ist entstanden: Milkomeda. Ihr steht nur noch wenig Rohmaterial zur Verfügung, so dass sich weniger Sterne bilden werden. Das Gas der Riesengalaxie wird kollisionsbedingt zehnmal heißer sein (rund drei Millionen Grad Celsius) als in den Ursprungsgalaxien und Röntgenstrahlen aussenden. Sollte ein Prozent des Gases zu den Schwarzen Löchern gelangen und in sie hineinstürzen, wird dort vorübergehend ein Quasar entflammen, der 100- bis 1000-mal heller als eine normale Galaxie strahlen wird.

Die Position des zukünftigen Weißen Zwergs (der von unserer Sonne übrig blieb) innerhalb von Milkomeda lässt sich nicht vorhersagen. Nach Computersimulationen wäre die wahrscheinlichste Position der äußere Halo, rund 100 000 Lichtjahre vom Zentrum entfernt – also viermal so weit wie heute.

Nach der Verschmelzung der großen Galaxien wird es nur noch knapp 17 Millionen Jahre dauern, bis die supermassereichen Schwarzen Löcher kollidieren und sich miteinander vereinen. Dabei wird das Universum förmlich erschüttert: Die freigesetzten Gravitationswellen werden etwa 1043 Joule an Energie mit sich führen – das ist fast soviel wie alle Sterne im sichtbaren Universum zusammen. Falls die Umgebung des zentralen Schwarzen Lochs nicht völlig freigefegt ist, wird es sich weiter Materie einverleiben und dabei noch massereicher werden. Ohne Nachschub schaltet es sich schließlich quasi selbst ab; die Galaxie legt sich zur Ruh. Schließlich wird auch die Galaxie M33 (heute im Sternbild Dreieck sichtbar) in Milkomeda stürzen und darin aufgehen, aber erst lange nachdem sich die Elliptische Galaxie gebildet hat.

In Billionen von Jahren werden, wie überall im Universum, keine neuen Sterne mehr entstehen. Alle, außer denen mit geringer Masse, sind dann längst ausgebrannt, explodiert oder verglimmen als Weiße Zwerge. Abgesehen von Dunkler Materie, deren Zusammensetzung noch ein Geheimnis ist (und falls sie überhaupt existiert), enthält Milkomeda ebenso wie andere Galaxien in erster Linie Schwarze Löcher, Neutronensterne, Weiße Zwerge und einige rote Sterne. Letztere leuchten jedoch so schwach, dass kein einziger von ihnen ohne Fernrohr zu sehen sein würde, selbst wenn sie uns so nahe wären wie heute Proxima Centauri. Doch selbst die allmählich verlöschenden Objekte produzieren von Zeit zu Zeit noch enorme Strahlungsausbrüche – eine Erinnerung an das nukleare Inferno, das einst den Himmel mit Milliarden von Sternen spickte.

„Ich seh‘ es fallen, enden, und wie alles zusammenbricht. Ich kann den Tag nicht wenden, aber leben will ich ihn nicht!“

(Apokalyptische Worte des Schriftstellers Theodor Fontane)

REM

Der Mensch entdeckt den Alkohol

Alkohol entsteht als Stoffwechselprodukt, wenn Hefen oder Bakterien Zucker abbauen. Alkoholkonsum führt beim Menschen zur Ausschüttung von Dopamin und Endorphinen, was Glücksgefühle und Entspannung hervorruft. Ebenso fördert das Teilen von Alkohol soziale Bindungen zu knüpfen und zu stärken.

Die Menschen haben schon vermutlich früh in ihrer Entwicklungsgeschichte Alkohol konsumiert, indem sie überreife Früchte, in denen der Gärprozess schon eingesetzt hatte, zu sich nahmen. Wissenschaftler meinen, dass sie das als Gruppe taten, um die Gemeinschaft zu stärken und sich sozial aneinander zu binden. In Westafrika (im Cantanhez-Nationalpark in Guinea-Bissau) wurden wilde Schimpansen dabei beobachtet, wie sie vergorene Früchte des Afrikanischen Brotfruchtbaums (Okwabaum) verzehrten und miteinander teilten. Dass Primaten Alkohol vertragen, dürfte auf eine Anpassung eines entsprechenden Enzyms bei gemeinsamen Vorfahren vor ca. 10 Millionen Jahren zurückgehen.

Homo sapiens begann dann irgendwann, alkoholische Getränke aktiv herzustellen, meist aus Fruchtsäften oder Getreide, seltener auch aus Honig oder Milch. Dabei war schon der Anblick fermentierender Substanzen wohl ein mystisches Erlebnis, meint der Archäologe Patrick McGovern: „Das Blubbern der Kohlensäure und die bewusstseinsverändernde Wirkung der Getränke ließ die Menschen in der Steinzeit vermutlich denken: Eine höhere Macht kommuniziert durch das Getränk mit uns.“ In größeren Mengen konsumiert hatten die Steinzeitmenschen das Gefühl, Göttern und Geistern nahe zu sein. Alkohol dürfte die älteste Droge sein, die seit prähistorischen Zeiten für religiöse Riten verwendet und bei kultischen Handlungen konsumiert wurde – weitestgehend zunächst wohl nur von Schamanen und Ältesten.

Der Rausch gehört wie Trance und Ekstase zu den veränderten Bewusstseinszuständen, die oft lustvoll, aber auch bedrohlich erlebt werden. Durch den Rausch nimmt beispielsweise der Schamane Kontakt zu parallelen Welten auf. Er ging auf eine „spirituelle Reise„, auf der er den „Atem der Geister“ spürte. Möglicherweise sind Musik, Höhlenmalerei und Schamanismus erst durch Rauschzustände entstanden.

BIER

Anfänge

Die Entstehung von Bier aus einem Getreidebrei und Wasser passiert auf natürliche Weise durch Wildhefen, die in mittleren geografischen Breiten und unter bestimmten Witterungsverhältnissen allgegenwärtig sind, beispielsweise auf Früchten und Insekten. Zur aktiven Herstellung von Bier durch den Menschen war daher keine große Kunstfertigkeit erforderlich. So gehen die Forscher heute davon aus, dass eine bierähnliche Substanz das älteste vom Menschen produzierte alkoholische Getränk ist. Es war aber noch weit entfernt von dem, was wir heute unter Bier verstehen (wollen).

[Um die Spaltung der Stärke in Zucker zu beschleunigen, gibt es ein Hilfsmittel: Speichel! Das im Speichel enthaltene Ptyalin wandelt die pflanzliche Stärke in Zucker um. Ungesäuertes Brot schmeckt nach einigem Kauen süß, weil es kräftig durchgespeichelt wurde. Es genügte also, eine geringe Menge Körner zu zerstampfen und reichlich Wasser und etwas Speichel hinzuzufügen: Die alkoholische Gärung entstand von selbst. In Amazonien und an den Hängen der Anden Südamerikas erzeugen die Indios bis in unsere Gegenwart auf diese Weise aus einem stärkehaltigen Brei das „Spuckebier“ Chicha.]

Wann der Mensch das älteste und vermutlich wichtigste alkoholische Getränk seiner Geschichte entdeckte, darüber gehen die Meinungen der Forscher auseinander. Bier wurde vermutlich bereits in Vorderasien getrunken, als die Menschen noch nicht in festen Dörfern lebten und Äcker bestellten. Einige Forscher nehmen an, dass die Ursprünge der Bierproduktion bis zu 13 700 Jahre zurückliegen. Die Höhle Rafeqet südlich von Haifa (Israel) diente Menschen der Kultur des Natufien (14 500 bis 12 000 v. h.) als Grabstätte, wo Tote auf einer von Blumen und Pflanzen bedeckten Plattform beigesetzt wurden. In zwei 40 bis 60 Zentimeter tiefen Gruben war Getreide gelagert worden, eine dritte diente wohl der Fermentation. Die Angehörigen der Gemeinschaft stellten hier wohl ein bierähnliches Getränk, vermutlich als Teil ihres Begräbniskultes, her.

Nach einer Theorie des Evolutionsbiologen Rudolf H. Reichholf war es das gemeinsame Trinken, das die Jäger und Sammler dazu brachte, Getreide anzubauen. Aus den Körnern Bier herzustellen war einfacher, als Brot zu erzeugen, denn man brauchte dazu kein Feuer und keinen Ofen. Es war auch nicht notwendig, die „Spreu vom Weizen“ zu trennen. Bier kann auch mit vollem Gehalt an Spelzen entstehen und geschlürft oder mit einem Rohrhalm getrunken werden.

Bier hatte zudem eine angenehme Wirkung und war sogar nahrhafter: Durch die Gärung des Getreidebreis kommt es ganz von selbst zu einer Konzentration von leicht verdaulichen, ergiebigen Nährstoffen, so dass das Bier tatsächlich auch als Nahrungsmittel betrachtet werden kann. War es also die Kultivierung von bereits bekannten, stärkehaltigen Pflanzen zum Zweck der Vergärung und zur Gewinnung von alkoholartigen Getränken, die quasi nebenbei zur „Entdeckung“ von Brotgetreide führte?‘ ‚

In vielen Kulturen gibt es tatsächlich Indizien dafür, dass Getreide zuerst als Rohstoff für ein vergorenes Getränk genutzt wurde. Zwischen der ersten Nutzung von Getreide und der Herstellung von Brot scheint eine zeitliche Lücke von 5000 bis 6000 Jahren zu klaffen. Die Abfolge „erst Bier, dann Brot“ zeigt sich auch in der Sprache: Das indogermanische Wort ‚brauda‚ ist die Wurzel von ‚Brot‘ und ‚brauen‘ – aber ‚brauen‘ ist älter. Zudem ist es nicht der spätere Brot liefernde Weizen, sondern die Gerste, aus der auch heute noch das meiste Bier gebraut wird.

Bier wurde wohl bei großen kultischen Festgelagen konsumiert, zu denen Menschen von weither zusammenkamen. Womöglich wurden diese Treffen von religiösen Spezialisten (z. B. Schamanen) veranstaltet, die genau wussten, wie sie die kollektiven Rauschzustände erzeugen konnten, ohne dass das Ganze außer Kontrolle geriet. Die berauschende Wirkung des Alkohols konnte als „soziales Schmiermittel“ genutzt werden, um den Zusammenhalt zu stärken und Fremden die Aufnahme in die Gemeinschaft zu erleichtern.

So dienten auch die frühesten bekannten menschlichen Bauten eindeutig dem Feiern von Festen, wahrscheinlich zu Ehren der Ahnen und damit dem Kult. Im nordmesopotamischen Göbekli Tepe (in der Südtürkei) ließ günstiges Klima reichlich Gräser, z. B. wilde Gerste, wachsen. Die Jäger-Sammler-Ethnien feierten hier rund um die ältesten Tempelanlagen der Welt (vor bis zu 12 000 Jahren) große Feste, bei denen auch Getreideprodukte konsumiert wurden. Es gibt Hinweise, dass aus Gräsersamen ein Bier gebraut wurde, das Teil von Ritualen gewesen sein könnte.

Archäologen entdeckten z. B. Kalksteintröge mit Spuren von Kalziumoxalat – auch als Bierstein bekannt -, das beim Brauen als unerwünschtes Nebenprodukt entsteht. Damit könnten die Bottiche einen rituellen Bierkonsum belegen. Zudem entdeckten die Forscher Mahlsteine und steinerne Hohlräume für die Aufbewahrung von Getreidebrei und Bier.

Sesshaftigkeit

Die frühesten dauerhaften Siedlungen sind wohl aus Kultstätten wie Göbekli Tepe hervorgegangen, als die Einführung der Landwirtschaft noch in weiter Ferne lag. Bier war zunächst möglicherweise noch kein Alltagsgetränk, sondern hatte wegen der berauschenden Wirkung des Alkohols vor allem kultische Bedeutung. Nach Ansicht mancher Forscher war die Zeit, als die Menschen sesshaft wurden, auch die Geburtsstunde mancher frühen Religionsformen. Die Verbindung von Alkohol und Religion zieht sich seitdem durch die Geschichte der Menschheit.

China

Das älteste eindeutige Bier, aus einer Hirse-Art gebraut, wurde im 10. Jahrtausend v. h. im Sudan nachgewiesen. Zur selben Zeit fingen die Chinesen damit an, Reis zu domestizieren, um daraus Bier herzustellen. Es scheint so, dass in China bereits kurz nach dem Ende der Eiszeit die Kunst des Bierbrauens weit verbreitet war.

In Qiaotou (Südchina) existierte vor etwa 11 400 bis 8600 Jahren am Jangtsekiang die Shangshan-Kultur. In hier entdeckten Keramik-Gefäßen (etwa 20), auf 9000 v. h. datiert, entdeckte man Stärkekörner aus Reis und von der Chinesischen Perlgerste zusammen mit Spuren von Hefen und Schimmelpilzen. Nach Ansicht der Fachleute wurden bei der Herstellung des Bieres auch nicht vergärbare Pflanzenteile hinzugegeben, mutmaßlich um die Gärung (durch die an ihnen heftenden Hefen und Bakterien) zu unterstützen.

Die Alltagsgegenstände, die man in Qiaotou fand, deuten auf einen Ritualort hin, an dem während einer Beerdigung, wohl als Teil eines Totenkultes, Bier getrunken wurde. Das vergorene Getränk hatte wahrscheinlich deutlich weniger Alkohol als heutiges Bier, denn die Gärung war damals weniger effizient. Aufgrund es vielen Restzuckers war es zudem recht süß.

Mesopotamien

Die Forscher nehmen an, dass Bierbrauen auch in den folgenden Jahrtausenden eine wichtige Rolle spielte, doch Spuren gibt es kaum (einige allerdings nicht eindeutige in Mesopotamien und im Iran). Erst mit der Erfindung der Schrift mehren sich wieder die Belege. Auf Rollsiegeln und Weiheplatten sieht man Sumerer vor einem großen Topf sitzen und mit langen Strohhalmen Bier schlürfen. (Die Trinkrohre aus Schilf, oft mit einem Sieb aus Bronze an der Spitze, sorgten dafür, dass die Zechenden nicht den Spelz vom Boden zu sich nahmen.)

Zahlreich sind die Mythen, die sich um biertrinkende mesopotamische Göttinnen und Götter ranken. Die Göttin des Biertrinkens ist Ninkasi, der sogar eine eigene Hymne mit der Beschreibung der Bierherstellung gewidmet ist. Kleine sumerische Steintafeln („monument bleu„) zeigen die Göttin bei der Zubereitung von Opferbieren. Das deutet darauf hin, dass die ersten Bierbrauer in Mesopotamien wohl weiblich waren.

Im Gilgamesch-Epos ist von einem Bierbrot (wohl eine Art Hefeteig) die Rede, das die Gärung in einem Gärbottich in Gang bringen sollte. Des Weiteren wird vom Trocknen der Maische auf Schilfmatten berichtet. Der Hymnos der Göttin verrät auch, dass Honig und Wein beigegeben und das Gemisch gefiltert wurde, vermutlich durch ein Behältnis mit perforiertem Boden. In der mittleren und späteren Bronzezeit wurde in Mesopotamien Bier aber auch für den Hausgebrauch gebraut. Die Hausfrau rührte in großen Keramikgefäßen, die nahe am Herd standen, den Brei aus zermahlenem Malz und Wasser ein paar Mal um und wartete einige Tage, bis der Gärprozess begann. (Die notwendige Hefe stammte aus dem Rückstand des vorangegangenen Brauvorgangs.)

Viele Forscher glauben, dass sich Mesopotamien nicht ohne das Bier zur ersten Hochkultur entwickelt hätte. Spätestens vor 3500 Jahren stand hier das Bierbrauen auch Männern offen. Niemand aber durfte die Bierbrauer bei ihrer heiligen Handlung stören, selbst Könige nicht. Ging etwas daneben, bedeutete es den Tod des Braumeisters: Er wurde in seinem misslungenen Bier ertränkt.

Beliebt war das Bier nicht nur wegen seiner berauschenden Wirkung. Es war in der Hitze ein willkommener Durstlöscher und im Gegensatz zu Wasser wegen seines sauren Milieus frei von krankmachenden Keimen. Zudem war es mit vielen gesunden Vitaminen und Spurenelementen angereichert. Obst und Gemüse (Zwiebeln, Hülsenfrüchte, Granatäpfel und Datteln) waren damals rar und für eine gesunde Ernährung nicht in der notwendigen Menge vorhanden. So konnte Bier sogar zeitweise zu einem Grundnahrungsmittel werden. Je nach Anlass wurde es mit niedrigem (für Arbeiter) und hohem Alkoholgehalt (bei Festen) hergestellt. (Um einen stärkeren Alkoholgehalt zu erreichen, ließ man das Bier einfach länger gären.)

Neben dem Gerstentrunk gab es auch ein Bier auf der Basis von Emmer, einer Vorform des Weizens. Man unterschied zudem verschiedene Qualitäten: Biere, die sich nicht nur im Geschmack (unterschiedliche Süße), sondern auch in der Farbe („schwarzes“, „rotes“ oder „goldenes“ Bier) und dem Alkoholgehalt unterschieden. In Uruk (Süd-Mesopotamien) kannte man vor mehr als 5000 Jahren v. h. bereits mehr als neun Biersorten. Laut Überlieferungen aus dem folgenden Jahrtausend v. h. gab es damals in ganz Mesopotamien schon mindestens 20 Biersorten.

Es wurden sogar schon Geschäfte mit dem alkoholischen Getränk gemacht. In Tell Adadi am syrischen Euphrat entdeckten Forscher Braugefäße mit siebartig durchlöchertem Boden, die offenbar in großem Stil für den Verkauf hergestellt worden waren.

Ägypten

Der ägyptischen Mythologie zufolge soll Osiris, der Gott der Landwirtschaft, den Ägyptern die Bierherstellung (und auch den Weinbau) gelehrt haben. Eine Brauerei aus der Zeit des einflussreichen ersten Pharaos Narmer im alten Ägypten (um 5200 v. h.) bestand aus acht Untereinheiten von etwa 20 Meter Länge und 2,50 Meter Breite, von denen jede 40 Bottiche in jeweils zwei Reihen enthielt. In den tönernen Gefäßen wurde Getreide und Wasser aufgekocht. Darauf folgte das Vergären der sog. Maische. Das Bier diente hier vermutlich für königliche Opferrituale. Ab 5000 v. h. produzierten die Menschen in Ägypten (Abydos) auch schon Bier quasi im industriellem Maßstab. Dabei stand lange der Nährwert im Vordergrund, vor allem Vitamine und Spurenelemente (s. o.).

Mitteleuropa

Das älteste Bier Mitteleuropas könnte bereits im späten 6. Jahrtausend v. h. von den Seeufersiedlern am Bodensee gebraut worden sein. Damit hätten europäische Neolithiker das Bier fast gleichzeitig mit den Pharaonen getrunken. Da man aber den Gärprozess nicht wissenschaftlich belegen kann, könnte es auch sein, dass man mit dem in verkohlten Speisekrusten gefundenen Malz lediglich eine Suppe gesüßt hat.

Die Jamnaja, Träger der Schnurkeramiker-Kultur, die nach 4800 v. h. von der Ukraine bis nach Mitteleuropa vordrangen, konsumierten Produkte aus Kuh-, Schaf- und Ziegenmilch, aber auch Stutenmilch. Vor allem vergoren, als Kumys, wurde die Stutenmilch offenbar sehr geschätzt. Kumys enthält nur noch wenig Laktose, dafür aber rund 1,6% Alkohol.

WEIN

In mindestens 40 000 Jahre alten Schichten entdeckten Archäobotaniker im heutigen Israel Überreste von Weintrauben. Aus der frühen Jungsteinzeit liegen bereits Belege vor, dass noch nicht sesshafte Völker die Beeren weiterverarbeiteten. Trauben sind frisch oder als Saft oder getrocknet als Rosinen sehr nährstoffreich. Wenn Saft zubereitet wird, kann daraus nach einigen Tagen automatisch Wein entstehen. Die Menschen entdeckten und schätzten wohl bald dessen befreiende Wirkung auf den Einzelnen und die einigende Wirkung auf die Gemeinschaft.

Wein spielte durch seine berauschende Wirkung eine tragende Rolle in Kunst und Religion. Spätestens mit der Sesshaftigkeit begann der eigentliche Weinanbau. Im Südkaukasus gehen die Ursprünge sogar bis auf 13 000 Jahre zurück. Von hier aus könnte sich der Weinbau weiter entwickelt und ausgedehnt haben. Die erste bekannte Traubenpresse, das älteste Weinrelikt überhaupt, stammt aus der Zeit vor ca. 10 000 Jahren (in Syrien). Der älteste Weinfund der Welt stammt aus dem chinesischen Ort Jiahu in der heutigen Provinz Henan, im Tal des Gelben Flusses. Die Rückstände des „Weines“ dort, der aus Reis, Honig und Früchten hergestellt wurde, werden auf 9000 Jahre datiert.

In Georgien (südlicher Kaukasus) entdeckten georgische und kanadische Wissenschaftler Keramikstücke, die aus der Zeit zwischen 8000 und 7800 v. h. stammen und zur Shulaveri-Shomutepe-Kultur (8. bis 7. Jahrtausend v. h.) gehörten. In den Poren der Scherben fand man Reste von Wein, der bislang älteste Nachweis von Beerenwein und Weinkultur in Vorderasien. (In 8000 bis 6000 Jahre alten Erdschichten wurden Traubenkerne entdeckt, die der Rebe Vitis vinifera angehören, von der nahezu alle heutigen Rebsorten abstammen.)

Die älteste bekannte Kelteranlage wurde im Iran im Zagros-Gebirge gefunden, nach heutigem Kenntnisstand 7400 bis 7000 Jahre alt. Große Gefäße legen nahe, dass die Menschen in ihnen Trauben gären ließen. Vergleichbare Funde aus Georgien und Armenien lassen vermuten, dass die Weinbauern der Steinzeit ihre Krüge in den Boden gruben. So behielt das Getränk eine konstante Temperatur, wodurch man den Wein konservieren konnte. Noch heute ist diese Tradition in Georgien zu beobachten: Weinbauern lagern den Rebensaft in Tonkrügen namens Qvevri und graben diese in den Boden ein – so wie ihre Vorfahren vor 8000 Jahren.

Der Weinbau breitete sich rasch im gesamten Nahen Osten aus. Bis ins 6. Jahrtausend v. h. lässt sich Kultivierung, Produktion und Handel des Weines zurückverfolgen. In Mesopotamien und Palästina begann der Anbau von Wein etwa 5500 v. h., in Ägypten 5100 bis 4700 v. h., auf Kreta ab 4400 v. h. Die Minoer kultivierten dort 3700 v. h. die ersten Edelreben. Wein war stärker als Bier und hatte einen weitaus höheren Stellenwert. Ihm wurde eine größere göttliche Kraft zugesprochen. Der Wein blieb zunächst den oberen Schichten vorbehalten, auch weil er länger aufbewahrt werden konnte. (Wein wird nach längerer Lagerung sogar besser.)

Der Honigwein Met ersetzte Wein und Bier in Regionen, in denen es (noch) keine Getreidekulturen gab und wo es für den Weinanbau zu kalt war. (Spuren fermentierten Honigs lassen sich bereits in Gefäßen der Glockenbecherkultur – etwa 4800 bis 3800 v. h. – nachweisen.)

Viele alte Kulturen schätzten also alkoholische Getränke, auch die im allgemeinen Verständnis ersten Hochkulturen (Mesopotamien, Ägypten, Indien und China), die an den großen Flüssen entstanden. Neben der Beschäftigung mit Getreideanbau und Viehwirtschaft wurden Bier oder weinartige Getränke, Met (aus Honig) oder Kumys (aus Stutenmilch) hergestellt. Hochprozentige Getränke kamen aber erst in der Neuzeit auf.

REM

Die Zelle – Grundbaustein des Lebens

Zellen sind die kleinsten, selbständig funktionierenden Grundeinheiten von Lebewesen. Und alles Leben begann mit einer Zelle, deren grundlegende Bausteine – Aminosäuren und Peptide (Bausteine der Proteine), Kohlenhydrate und Polysaccharide, Lipide (Fettsäuren) und Nukleotide (Bausteine der Nukleinsäuren) – in einer chemischen Evolution synthetisiert und verbunden wurden. Zunächst waren Zellvorläufer entstanden, die bereits einerseits eine Grenze zwischen innen und außen hatten (Zellmembran), andererseits einen Informationsträger. In ihrem abgeschlossenen Lebensraum, unbeeinflusst von der Außenwelt, konnten chemische Reaktionen ungestört ablaufen, wobei sich Information und Stoffwechsel (Energieversorgung der Zelle) wahrscheinlich in wechselseitiger Abhängigkeit weiter entwickelten. Die Selbstreplikation der Protozellen (d. h., die Herstellung einer Kopie) war der entscheidende Schritt zum Leben, mit der eine grundlegend neue Evolution einsetzte.

Doch die Idee einer einzigen Urzelle als der letzte allen Organismen gemeinsamer Vorfahre scheint zu einfach zu sein. Daher gehen andere Wissenschaftler von einem Konkurrenz“kampf“ aus, der sich zwischen verschiedenen Formen sich selbst replizierender chemischer Systeme abspielte, die einen gemeinsamen genetischen Code benutzten. Daraus seien dann die ersten Zellen hervorgegangen, die wahrscheinlich in der Nähe der Schwarzen Raucher (black smokers) am Meeresboden lebten und abhängig waren von der Energiezufuhr durch chemische Verbindungen (z. B. Schwefelwasserstoff) aus den Hydrothermalquellen.

Ob der Ursprung des Lebens tatsächlich bei hohen oder doch bei niedrigen Temperaturen lag, ist allerdings noch nicht bewiesen. Zumindest spielte aber Hyperthermophilie am Beginn des Lebens eine große Rolle. Die heutigen Hyperthermophilen (Bewohner heißer bis sehr heißer Lebensräume) sind ihren primitiven Vorfahren noch sehr ähnlich und stehen sowohl bei Bakterien wie auch bei Archaeen (s. u.) an der untersten Stelle der Abzweigung im Stammbaum.

Wahrscheinlich waren die ersten Zellen jedenfalls wohl klein und einfach, besaßen eine Zellwand und einen Zellinnenraum mit darin eingelagerten Transportmolekülen und stoffwechselaktiven Molekülen (wie z. B. Enzymen) und verfügten über einen Selbstvermehrungsmechanismus. Sie speicherten die durch den Abbau von anorganischen Stoffen anaerob (ohne Sauerstoff) gewonnene Energie in Form von Kohlenhydraten, die sie selbst zusammenbauten.

Diese Urzellen besaßen aber noch keinen abgetrennten Kern und keine Organellen, die für die heutigen Zellen typisch sind. Ihr genetisches Material war im Zellplasma verteilt, und sie vermehrten sich in der Regel durch einfache Teilung oder Knospung. Man bezeichnet sie als Prokaryoten (Zellen ohne Zellkern) – ähnlich den heutigen Archaeen und Bakterien.

Die Archaeen – Prokaryoten, die vermutlich die frühesten Lebewesen überhaupt umfassen -, die Bakterien – ebenfalls Prokaryoten -, sowie die Eukaryoten – Zellen mit Kern – bilden die drei Domänen des Lebens. Die Domäne der Eukaryoten wird ihrerseits in vier „Reiche“ unterteilt: in die der Pflanzen, der Pilze, der Tiere und der Protoctista (einer Sammelgruppe einzelliger wie auch mehrzelliger Algen sowie tierischer Einzeller). Archaeen und Bakterien unterscheiden sich grundlegend in einer Fülle von Genen und biochemischen Merkmalen untereinander und von denen der Lebewesen mit echtem Zellkern, teilen aber auch viele Eigenschaften.

Die ersten Prokaryoten könnten bereits vor 4,32 Milliarden Jahren aufgetaucht sein, wie eine biochemische Rekonstruktion auf Basis eines in allen Organismen vorhandenen Enzyms, der ATP-Synthase, nahelegt. 2017 haben Wissenschaftler im Norden Labradors 4,28 bis 3,77 Milliarden alte Gesteine ausgegraben, in denen sich womöglich Reste der ersten Organismen befinden. Mikrofossilien, die ziemlich eindeutig von Lebewesen stammen, wurden auf ein Alter von 3,95 bis 3,45 Milliarden Jahre datiert. Doch noch sind nicht alle Zweifel ausgeräumt, dass das Leben in dieser Zeit entstanden ist.

Die Prokaryoten haben jedenfalls unter den Bedingungen der unwirtlichen Frühzeit der Erde ihre phantastischen Fähigkeiten entwickelt, die ihnen das Überleben in einer extremen Umwelt bis heute gesichert haben. Sobald die ersten primitiven Einzeller auf unserem Planeten Fuß gefasst hatten, begannen sie ihn auch zu verändern: Methan, Kohlenstoffdioxid, Stickstoff und Wasser wurden zu Hauptbestandteilen der Atmosphäre. Computersimulationen zeigen, dass die Kohlenstoffdioxid- Atmosphäre vor 3,8 Milliarden Jahren einen Treibhauseffekt erzeugte, der die gesamte Oberfläche siedend heiß werden ließ. (Das Urmeer scheint in dieser Zeit eine Temperatur von 80 bis 90°C gehabt zu haben – ein Paradies für Hyperthermophile.)

Nach Schätzungen von Geochemikern erreichte der Wasserstoff in der frühen Erdatmosphäre Konzentrationen von einigen Promille. Wie thermodynamische Rechnungen zeigen, konnten die Mikroben den größten Teil davon in Methan umwandeln. Methan ist ein höchst wirksames Treibhausgas. Und da die Atmosphäre noch ohne Sauerstoff war, konnten die Methan-Moleküle in der Luft etwa 10 000 Jahre lang überdauern. (In der heutigen Lufthülle hat Methan schon nach 10 Jahren mit Sauerstoff reagiert und sich in Kohlenstoffdioxid und Wasser umgewandelt.) Die Erde wurde durch den von Methan ausgelösten Treibhauseffekt immer wärmer – trotz damals kühlerer Sonne. Zu warm wurde es wiederum auch nicht, denn sobald die Konzentration des Methans eine gewisse Grenze überschritt, verschmolzen seine Moleküle zu längeren Ketten, die einen kühlenden Dunstschleier bildeten.

„Erfindung“ der Fotosynthese

Vor 3,5 Milliarden Jahren enthielt die Atmosphäre noch immer einen giftigen Cocktail aus Kohlenstoffdioxid und Methan, womöglich auch Ammoniak und Blausäure – aber keinen Sauerstoff. Belegt ist durch fossile mikrobiologische Schichten, dass sich in dieser Zeit aber schon vielfältiges Leben in den Gewässern der jungen Erde, die weite Teile der Oberfläche prägten, tummelte – bei Meerestemperaturen wohl zwischen 55 und 85°C. Alles deutet auf eine Gemeinschaft primitiver, aber schon relativ komplexer Einzeller hin, die sich über einen längeren Zeitpunkt entwickelt haben mussten, also bereits viel früher – von den ersten primitiven Zellen ausgehend – entstanden waren.

In den sonnenbeschienenen Flachwasserbereichen fanden Kolonien von diesen Prokaryoten fast optimale Bedingungen: Wasser ist ein gutes Lösungsmittel für biochemische Reaktionen. Wo das Meer tief genug war, hielt es die schädliche UV-Strahlung ab (es gab noch keine atmosphärische Ozonschicht), ließ aber teilweise längerwelliges Sonnenlicht noch bis zum Boden gelangen.

In den infraroten Photonen entdeckten einige der Prokaryoten eine neue Energiequelle. Sie lernten, Lichtenergie zu absorbieren und in chemische Energie umzusetzen. Da die Atmosphäre noch sauerstofffrei war, mussten sie anstelle von Chlorophyll andere Pigmente verwendet haben, mit denen sie das nahe Infrarot nutzten. An diesen chemischen Reaktionen (anoxygene Fotosynthese) waren Wasserstoff, Schwefelwasserstoff oder Eisen beteiligt, aber kein Wasser: Darum setzten sie auch kein Sauerstoffgas frei, sondern produzierten beispielsweise Schwefel- und Sulfatverbindungen.

Fraglich ist, wann genau die oxygene (Sauerstoff freisetzende) Fotosynthese entstanden ist. Wahrscheinlich ebnete wie bei den ersten Stoffwechselprozessen ein mineralischer Katalysator den Weg, ein manganhaltiges Mineral: Mangankalziumoxid (Mn4CaO4). Manganatome sind wegen ihrer größeren Zahl an Valenzelektronen ziemlich strahlungsresistent. Mit ihrer Hilfe ließen sich nicht nur Sonnenstrahlen abblocken, sondern auch Wassermoleküle spalten. Der dabei freigesetzte Wasserstoff war ein gefundenes Fressen für jede Mikrobe in der Nähe, während der Sauerstoff als Abfall entwich. Daher nahmen wahrscheinlich frühe Organismen manganhaltige Verbindungen auf, die dann die führende Rolle bei der Entwicklung der oxygenen Fotosynthese übernahmen.

Aus den Befunden lässt sich schließen, dass vor mindestens 3,4 Milliarden Jahren schon den Blaualgen (Cyanobakterien) ähnliche Organismen existierten, die nennenswerte Mengen an Sauerstoff produzierten. Gegen ein frühes Auftreten der oxygenen Fotosynthese spricht aber das komplexe System zweier hintereinander geschalteter Fotosysteme. Vielleicht wurde dessen Entwicklung zu einem Zeitpunkt begünstigt, als nur noch begrenzte Mengen an Schwefelwasserstoff für die anoxygene Fotosynthese zur Verfügung standen. Für die oxygene Fotosynthese war dagegen Wasser als nahezu unerschöpfliche Ressource verfügbar.

Nach dem Einbau des fotosynthetischen Molekülkomplexes in eine Membran entstanden jedenfalls vor rund 2,7 Milliarden Jahren Cyanobakterien, die sichtbares Licht mittels einer Pigmentmischung (u. a. auch mehrere Formen von Chlorophyll) absorbierten und ihre Nahrung selber produzierten. Sie wurden damit unabhängig von anderen Stoffen (autotroph) und breiteten sich in den flachen, geschützten Küstengewässern des Urozeans rasch aus. Intensive Sonnenstrahlung und reichlich CO2 ließen riesige Kolonien oder Matten von Cyanobakterien entstehen, in denen diese Kalk ablagerten und so die Stromatolithen – aus Kalkschichten gestapelte, manchmal meterhohe Körper – bildeten, auf denen die Einzeller außen siedelten. Die ungeheure Vermehrung der Cyanobakterien war die erste Bevölkerungsexplosion auf der Erde.

[Möglicherweise haben damals verschiedene Prokaryoten nach Art der Mikroben-Rasen gelebt. Bei heutigen Stromatolithen wächst über Lagen von heterotrophen Organismen ein Teppich autotropher Formen, die Fotosynthese betreiben und von denen die unteren Lagen Nährstoffe beziehen. Wie die Ablagerungen zeigen, sahen die Kolonien aus der Frühzeit bereits sehr ähnlich aus.]

Tödlicher Sauerstoff

Die „Erfindung“ der Fotosynthese war die letzte große Errungenschaft des Lebens im Bereich des aufbauenden Stoffwechsels. Es dauerte dann allerdings noch rund 300 Millionen Jahre, bis der Sauerstoffgehalt der Atmosphäre durch die Aktivität der Cyanobakterien weiter angestiegen war. Für die meisten der damals lebenden Prokaryoten war der aggressive Sauerstoff zunächst nichts anderes als ein tödliches Gift. Sie waren an eine anaerobe Umwelt angepasst und vermutlich gegenüber freiem Sauerstoff äußerst empfindlich – ein frühes Beispiel einer globalen Umweltverschmutzung. Fast die gesamten frühen Lebensformen wurden so vor 2,4 Milliarden Jahren vernichtet.

Überlebt haben diese Krisenzeit außer den Cyanobakterien vermutlich nur jene Einzeller, die eine Rückzugsmöglichkeit (dunkle, lichtlose Regionen) hatten oder Schutzmaßnahmen entwickelten. Einigen Prokaryoten gelang es schließlich sogar, den Sauerstoff für den eigenen Stoffwechsel einzusetzen. Sie begannen zu atmen, d. h., sie gewannen ihre notwendige Energie durch den Abbau organischer Moleküle (Protobionten) mit Hilfe des Sauerstoffs.

Durch die intensiveren Stoffwechselvorgänge waren die Prokaryoten in der Lage, die verfügbare Nahrung besser zu verwerten. Bei ihrer sogenannten aeroben Atmung entstehen beispielsweise aus einem Zuckermolekül etwa 32 Moleküle ATP (Adenosintriphosphat / Energieträger der Zelle), bei der anaeroben Gärung sind es gerade einmal 2 bis 4 ATP-Moleküle. Das verschaffte den Prokaryoten mit aerobem Stoffwechsel riesige Vorteile. Entstanden vor etwa 2 bis 1,5 Milliarden Jahren haben sich diese grundlegenden Mechanismen seitdem nicht mehr verändert, auch wenn die Präsenz von freiem Sauerstoff in Luft und Wasser während der letzten zwei Milliarden Jahre immer komplexere Zellfunktionen ermöglichte.

Diese Einzeller schütteten Enzyme aus, die die Moleküle zersetzten, und nahmen dann die verwertbaren Nährstoffe in die Zelle auf (wie es auch die meisten heutigen heterotrophen, sich also von organischen Stoffen ernährenden Prokaryoten tun). Irgendwann verloren einige von ihnen ihre Zellwand. Die weiche äußere Membran befähigte die Zelle erstmals, kleine Nahrungspartikel aus der Umgebung ins Zellinnere aufzunehmen (Endozytose), indem sie das Objekt mit der Außenmembran umschlossen, um es schließlich innerhalb der Zelle abzubauen (zu verdauen). Damit war der Prokaryot unabhängiger von seiner unmittelbaren Umgebung und gab schließlich die äußere Verdauung gänzlich auf. Schließlich konnte der Prokaryot feste Bestandteile oder sogar ganze Zellen aufnehmen (Phagozytose).

Wenn man heutige Phagozyten als Modell nimmt, musste der Wirt viel größer als seine Beute sein, also eine ungewöhnlich große Zelle (ähnlich den Weißen Blutkörperchen) mit einem „Zytoskelett“ (ein faserartiges Gerüst innerer Membranen), das ihm anstelle der Zellwand innere Stabilität gab.

Endosymbiontenhypothese

Mit der sogenannten Endosymbiontenhypothese versucht man zu erklären, wie Zellen erstmalig in den Besitz von bestimmten Zellorganellen kamen. Danach wurde ein verschlungener, kleiner Prokaryot nicht immer verdaut. In wenigen außergewöhnlichen Fällen überlebte er, und aus anfänglicher Duldung wurde irgendwann wechselseitige Unterstützung und schließlich gegenseitige Abhängigkeit. Mit der Zeit verlor der fremde Organismus die Fähigkeit, eigenständig zu existieren, und wurde ein untrennbarer Teil des Phagozyten, ein sogenannter Endosymbiont.

Auch die Vorläufer der Mitochondrien (in den heutigen höheren Zellen Orte der Zellatmung), entstanden wohl als Symbionten. Sie waren ursprünglich fakultativ anaerob, d. h., sie konnten von der Atmung auf die Gärung umschalten, wenn kein Sauerstoff vorhanden war. Der Vorteil für den Wirt könnte daher zunächst in der Verwendung der Abfallprodukte des Mitochondrien-Vorläufers bestanden haben, der beispielsweise anaerob aus organischen Substanzen Wasserstoff erzeugte, was seinem Wirt die Energiegewinnung durch Methanbildung ermöglichte.

In den Peroxisomen (weiteren Zellorganellen) laufen unter Sauerstoffverbrauch vielfältige Stoffwechselvorgänge ab. Diese Oxidationsvorgänge sind aber in den Peroxisomen wesentlich einfacher organisiert als in den Mitochondrien. Sie könnten jedoch die erste Phalanx gegen den bedrohlichen Sauerstoff gewesen sein. Erst als der Mitochondrien-Vorläufer eine hohe Leistungsfähigkeit in der Verwertung von Sauerstoff erreicht hatte, wurde er zum Zellorganell, das ausschließlich der Energiegewinnung mit Hilfe von Sauerstoff diente.

(Peroxisomen haben in heutigen Zellen keinen eigenen genetischen Apparat mehr, sind aber trotzdem für viele Lebewesen unabkömmlich: Unter anderem sind sie für den Abbau bestimmter Fettsäuren zuständig.)

Es ist noch umstritten, ob sich eine Endosymbiose von Vorläufer-Mitochondrien ein- und mehrmals ereignete. Nach ihrer Aufnahme gaben sie jedenfalls einen Teil ihrer Gene und Funktionen an die sie umschließende Zelle ab. So reduzierte sich das Mitochondriengenom während der Evolution auf das unbedingt notwendige Mindestmaß. Heute enthält es die Information für lediglich 13 Proteine, die alle an der Energiegewinnung der Zelle mitwirken und die Energieproduktion am Laufen halten. Vom genetischen Ballast befreit, konnte die Zahl der Mitochondrien in der Zelle vermehrt werden – mehr als 2000 von ihnen gibt es z. B. in einer menschlichen Zelle.

Die Entstehung der „zellulären Kraftwerke“ dürfte der wesentliche Schritt in der Evolution gewesen sein. Er erlaubte der Wirtszelle, komplexe innere Strukturen auszubilden, und ermöglichte damit überhaupt erst die Entwicklung von komplexem Leben, der Entstehung von Vielzelligkeit und Spezialisierung.

Auch die Evolution des durch eine Membran abgegrenzten Zellkerns lässt sich wenigstens im Prinzip auch mit der Endosymbiontenhypothese erklären. Bei Prokaryoten ist ein ringförmiges DNA-Chromosom an einer Stelle der Zellmembran befestigt. Würde nun gerade dieser Abschnitt als Bläschen abgeschnürt, entstünde ein inneres Membransäckchen, an dem außen das Erbmaterial hängt. Vielleicht begann mit einem ähnlichen Gebilde die Entwicklung zum heutigen Zellkern, der die Synthese der Proteine im Zellplasma (in den Ribosomen) steuert.

Somit hatten manche Phagozyten in der neuen sauerstoffreichen Umwelt bereits die eine oder andere grundlegende Eigenschaft der eukaryotischen Zellen (Zellen mit Kern) entwickelt. Einige nutzten das Abfallprodukt Sauerstoff zur Produktion von viel Energie, die anderen schufen die umfassende Datenbank des Zellkerns. Die Steigerung der Überlebensmöglichkeiten und des Fortpflanzungspotenzials musste gewaltig gewesen sein. Sämtliche Verfeinerungen im Zellinneren, die später noch aus diesen Evolutionsschritten erwuchsen, waren zwar nützlich und wichtig, jedoch nicht mehr so fundamental wie diese ersten Schritte.

Die Mehrzahl der Organellen der heutigen (eukaryotischen) Zellen ist wohl zuerst als Prokaryot entstanden. Praktisch jedes der Eukaryoten-Merkmale findet man bei einzelnen Prokaryoten, allerdings immer nur einer davon: kernähnliche Strukturen, innere Membranen, lineare statt kreisförmige Chromosomensätze, Riesengröße, dynamische Zellskelette, ja sogar Räuber-Beute-Beziehungen und Parasitismus. Es sind die energetischen Barrieren, die den Prokaryoten den evolutiven Weg zur Komplexität versperren. Sie hindern sie daran, jemals vergleichbar viele Gene zu entwickeln, so dass sie selten mehr als ein einziges aufwändiges Merkmal gleichzeitig zeigen.

Gene in Proteine umzusetzen, verschlingt fast drei Viertel des Energiebudgets einer Zelle. Und genau deshalb kann sich ein bakterielles Genom auch nicht so ohne Weiteres vergrößern. Würde es zehnmal so viele Erbfaktoren beinhalten, benötigte die Proteinsynthese ebenfalls etwa zehnmal so viel Energie – was die Möglichkeiten der Prokaryoten bereits bei Weitem überstiege.

Erst die Entwicklung der Mitochondrien lieferte ausreichend Energie für jene hunderttausende zusätzlichen Wirtsgene und ihre Umsetzung in Proteine, dank denen die Zelle komplexer werden kann. So barg der Phagozyt schützend die kleinen Zellen in seinem Inneren und stellte ihnen zusätzliche Energie – und zwar sehr viel mehr – aus seinem Atmungsstoffwechsel bereit. Dies öffnete die Tür zu einer Proteinevolution (neuartige Proteinfaltungen, -wechselwirkungen und Regulationswege), die für Zellen ohne Mitochondrien unerreichbar bleibt. (Sogar die mittlere Proteinlänge ist um 30% größer als bei Prokaryoten.)

Der Größenunterschied zwischen einem Prokaryoten und einem Eukaryoten ist beträchtlich: Ein Eukaryot ist 10 bis 30 Mikrometer lang (Bakterien meist nur 1 Mikrometer) und hat typischerweise mehr als das 10 000-fache Volumen eines Prokaryoten. Das Endomembransystem erweitert den intrazellulären Stofftransport und das Zytoskelett erhöht die Stabilität, was es ermöglicht, große Zellvolumina zu erreichen. Die zahlreichen Organellen in etwa der Größe von Prokaryoten sind strukturell vom Rest der Zelle getrennt und erfüllen arbeitsteilig bestimmte Aufgaben. Im Vergleich zu einem eukaryotischen Einzeller (beispielsweise einer Hefezelle oder einer Amöbe) wirkt ein Prokaryot geradezu rudimentär ausgestattet.

Entwicklung der Eukaryoten

Wie es sich beim Ursprung der „Superzellen“ (wie sie der Neurophysiologe William H. Calvin nannte) tatsächlich in etwa zugetragen haben könnte, wird man leider niemals mit Sicherheit wissen. Über Milliarden Jahre hinweg hatten sehr einfache Organismen dominiert, die im Wesentlichen aus einer von einer dünnen Membran sowie einer festeren Zellwand umschlossenen Flüssigkeitsansammlung bestanden, in denen Moleküle unterschiedlichster Größe herumschwammen und die lebensnotwendigen biochemischen Reaktionen vollzogen.

Durch die Übernahme bereits optimierter Endosymbionten-Gene erwarb die Wirtszelle mit einem Schlag eine Reihe neuer Eigenschaften. In einigen Fällen führte dieser Gen-Transfer dazu, dass im Zellkern mehrere Gene unterschiedlichen Ursprungs für ein und dieselbe Funktion existierten. Aufgrund von Selektionsprozessen wurde letztlich das jeweils funktionellste Gen exprimiert, während andere Kopien funktionslos blieben oder gänzlich eliminiert wurden.

Auch der Austausch von Genen über Artgrenzen hinweg, der sogenannte horizontale Gentransfer, spielte in der Evolution der ursprünglichen Einzeller offenbar eine große Rolle. (Ein solcher Prozess ist auch von modernen Bakterien bekannt.) Daher wird man niemals exakte Gen-Stammbäume festlegen können; jeder Stammbaum der Organismen beschreibt bestenfalls die Evolution eines Teils ihres Erbguts.

Mit jeder evolutiven Etappe gewann die Zelle ein wenig mehr Autonomie. Eine neue Studie lässt vermuten, dass die eukaryotischen Vorläuferzellen viel komplexer waren, als bisher angenommen. Sie besaß höchstwahrscheinlich bereits dynamische aktinähnliche Filamente und weitere Proteine, die bis dato für eukaryotenspezifisch gehalten wurden und die essenziell sind für verschiedene zelluläre Prozesse wie Muskelbewegung, Zellteilung, Stofftransport innerhalb der Zelle und Endozytose.

Die merkwürdige Verwandlung vom kleinen, einfachen Prokaryoten zum großen, beweglichen, in vielem schon eukaryotenhaften Phagozyten mag eine Milliarde Jahre gedauert haben und erforderte viele Anpassungsschritte. Manche einfachen eukaryotischen Formen traten möglicherweise schon vor 2,2 bis 2,1 Milliarden Jahre auf. In fossiler Form sind sie erst seit 1,7 Milliarden Jahren sicher dokumentiert. Diese Fossilien sind zum Teil so gut erhalten, dass man das Vorhandensein von Organellen in den Zellen vermuten kann.

Die Entdeckung der sogenannten Protosteroide (Urfette) deuten auf eine ganze Reihe bisher unbekannter eukaryotischer Organismen hin, die in aquatischen Umgebungen vor 1,6 bis 0,8 Milliarden Jahren lebten. Diese einzelligen Eukaryoten-Vorläufer dominierten hunderttausende Jahre lang die offenen Wasser der Ozeane und Seen. Die Organismen unterscheiden sich von den eukaryotischen Lebewesen, wie wir sie heute kennen, durch ihren Zellaufbau und womöglich auch durch ihren Stoffwechsel. Dieser war an eine Welt angepasst, die weit weniger Sauerstoff in der Atmosphäre aufwies als heute.

………………………………………………………………………………………………………………………….Einige der Einzeller hatten sich auch Chlorophyll enthaltende Lebensformen einverleibt, die Sonnenlicht in chemische Energie umwandeln konnten. Aus ihnen waren Chloroplasten geworden, in denen heute die oxygene Fotosynthese stattfindet. Wirkungsmechanismen und Struktur des Mn4Ca-Zentrums blieben bis zu den heutigen Grünpflanzen erhalten.

Genaueren Analysen zufolge dürften fotosynthetisch aktive Bakterien dreimal unabhängig voneinander aufgenommen worden sein: Aus den jeweiligen Symbiosen entwickelten sich die Grün-, die Rot- und die Braunalgen. Von ersteren stammen wiederum jene Pflanzen ab, die schließlich das Land eroberten.

Plastiden enthalten heute zwischen 100 und 200 Proteingene, während frei lebende Cyanobakterien mindestens 2000 Proteingene besitzen. Die Plastiden-DNA schrumpfte auf etwa 1/30 ihrer einstigen Größe. Der wesentlicher Teil der zu ihrer Synthese benötigten genetischen Information befindet sich in der chromosomalen DNA des Zellkerns. ……………………………………………………………………………………………………………………….

Die moderne Eukaryotenzelle

Die Entwicklung der elementaren Grundprozesse (wie Atmung und Fotosynthese) und Strukturen und ein wandelbarer Vererbungsmechanismus war vor 1,2 Milliarden Jahren abgeschlossen. Als sich vor rund einer Milliarde Jahren Klima und Sauerstoffgehalt der Erdatmosphäre änderten, starben die sogenannten Stammgruppen-Eukaryoten aus. Die modernen Eukaryoten waren durch ihre Fähigkeit, Steroide herzustellen, anpassungsfähiger und wahrscheinlich besser in der Lage, Hitze und Kälte sowie UV-Strahlung zu überleben. Ihre molekularen Signaturen traten erstmals in der sogenannten Tonium-Periode auf, einer Zeit, in der die Erdatmosphäre zunehmend mit Sauerstoff – dem Stoffwechselprodukt der Cyanobakterien und der ersten eukaryotischen Algen – angereichert wurde. Mit dem Auftreten dieser modernen Eukaryoten war eine weit wirkungsvollere Evolution möglich.

Die Artenzahl der „Superzellen“ veränderte sich sprunghaft um das Dreifache vor rund 720 Millionen Jahren, als nahezu die gesamte Erde unter Eis eingefroren war („Schneeballerde„) – und kollabierte nach einer weiteren Eiszeit vor 580 Millionen Jahren. Danach aber erhöhte sich das Evolutionstempo. Durch adaptive Radiation entwickelten sich Tausende von eukaryotischen Einzellerarten mit unterschiedlichsten Formen und Lebensweisen. Heute werden ungefähr 50 000 Arten beschrieben, davon zählen etwa 27 000 zu den Protozoen (Urtierchen) gezählt.

Prokaryoten mögen zwar die erfolgreichsten Lebewesen der Erde sein, doch die größte Formenvielfalt bieten die Eukaryoten. Sie brachten als einzige Einzeller vielzellige Organismen, Lebewesen mit größeren, beständigeren und aktiveren Körpern (Pflanzen, Tiere und Pilze), hervor. Es ist dabei kein bloßer Zufall, dass die rasche Evolution des Lebens von den Prokaryoten über die Eukaryoten zu den Metazoen (vielzellige Organismen) in der etwa eine Milliarde Jahre währenden Phase stattfand, in der die Erde über eine an Sauerstoff reiche Lufthülle verfügte.

Ohne die Eukaryoten gäbe es auch uns Menschen nicht. Auch unser Organismus ist nämlich nicht nur ein Universum von Atomen und Molekülen, sondern auch von vielen Billionen eukaryotischer Zellen. Die meisten von ihnen messen zwischen 2 und 40 Mikrometer (1 Mikrometer = 1/1000 Millimeter). Sie enthalten eine Zellmembran bzw. Zellwand (Schutzhülle), einen Zellkern (Steuerzentrale und Sitz des genetischen Programms), zwei Zentrosomen (Organisation der Zellteilung), Mitochondrien (Zellatmung), Millionen Ribosomen (Proteinsynthese), über eine Million Enzyme (Organisation und Kontrolle aller Zellfunktionen), das Endoplasmatische Reticulum (weitverzweigtes Kanalsystem für Stofftransport), den Golgi-Apparat (ein weiteres Membransystem), Lysosomen (zur Abfallbeseitigung) und ein Zellskelett (Form und Untergliederung der Zelle) – außerdem zahlreiche größtenteils organische Stoffe, z. B. weitere Proteine, Lipide, Zucker (Polysaccharide), Nukleinsäuren (RNA) und kleine organische Moleküle oder Ionen. Je nach Zelltyp sind 5 bis 40% des Volumens einer menschlichen Zelle durch Makromoleküle ausgefüllt.

Jede lebende Zelle, selbst das einfachste Bakterium, wimmelt nur so von molekularen Maschinen, die einen Nanotechniker vor Neid erblassen lassen. Sie zappeln, krabbeln und schrauben sich rastlos durch die Zelle, sie zerschneiden, kleben und kopieren Erbmoleküle, sie transportieren Nährstoffe hin und her oder verwandeln sie in Energie, sie bauen und reparieren Zellmembranen, sie übertragen mechanische, chemische oder elektrische Signale und, und, und. Inzwischen haben Biologen außer den verschiedenen bekannten Organellen noch viele weitere intrazelluläre Strukturen entdeckt – und laufend werden es mehr.

REM